Spelling suggestions: "subject:"leveraging""
281 |
Bootstrapping high frequency dataHounyo, Koomla Ulrich 07 1900 (has links)
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences.
Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles.
Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles.
Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles. / We develop in this thesis bootstrap methods for high frequency financial data. The first two chapters focalise on bootstrap methods for the "pre-averaging" approach, which is robust to the presence of market microstructure effects. The main idea underlying this approach is that we can reduce the impact of the noise by pre-averaging high frequency returns that are possibly contaminated with market microstructure noise before applying a realized volatility-like statistic. Based on this approach, we develop several bootstrap methods, which preserve the dependence structure and the heterogeneity in the mean of the original data. The third chapter shows how and to what extent the local Gaussian- ity assumption can be explored to generate a bootstrap approximation for covolatility measures.
The first chapter is entitled "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". The main contribution of this chapter is to propose bootstrap methods for realized volatility-like estimators defined on pre-averaged returns. In particular, we focus on the pre-averaged realized volatility estimator proposed by Podolskij and Vetter (2009). This statistic can be written (up to a bias correction term) as the (scaled) sum of squared pre-averaged returns, where the pre-averaging is done over all possible non-overlapping blocks of consecutive observations. Pre-averaging reduces the influence of the noise and allows for realized volatility estimation on the pre-averaged returns. The non-overlapping nature of the pre-averaged returns implies that these are asymptotically independent, but possibly heteroskedastic. This motivates the application of the wild bootstrap in this context. We provide a proof of the first order asymptotic validity of this method for percentile and percentile-t intervals. Our Monte Carlo simulations show that the wild bootstrap can improve the finite sample properties of the existing first order asymptotic theory provided we choose the external random variable appropriately.
The second chapter is entitled "Bootstrapping pre-averaged realized volatility under market microstructure noise ". In this chapter we propose a bootstrap method for inference on integrated volatility based on the pre-averaging approach of Jacod et al. (2009), where the pre-averaging is done over all possible overlapping blocks of consecutive observations. The overlapping nature of the pre-averaged returns implies that these are m-dependent with m growing slowly with the sample size n. This motivates the application of a blockwise bootstrap method. We show that the “blocks of blocks” bootstrap method suggested by Politis and Romano (1992) (and further studied by Bühlmann and Künsch (1995)) is valid only when volatility is constant. The failure of the blocks of blocks bootstrap is due to the heterogeneity of the squared pre-averaged returns when volatility is stochastic. To preserve both the dependence and the heterogeneity of squared pre-averaged returns, we propose a novel procedure that combines the wild bootstrap with the blocks of blocks bootstrap. We provide a proof of the first order asymptotic validity of this method for percentile intervals. Our Monte Carlo simulations show that the wild blocks of blocks bootstrap improves the finite sample properties of the existing first order asymptotic theory.
The third chapter is entitled "Bootstrapping realized volatility and realized beta under a local Gaussianity assumption". The financial econometric of high frequency data litera- ture often assumed a local constancy of volatility and the Gaussianity properties of high frequency returns in order to carry out inference. In this chapter, we show how and to what extent the local Gaussianity assumption can be explored to generate a bootstrap approximation. We show the first-order asymptotic validity of the new wild bootstrap method, which uses the conditional local normality properties of financial high frequency returns. In addition to that we use Edgeworth expansions and Monte Carlo simulations to compare the accuracy of the bootstrap with other existing approaches. It is shown that at second order, the new wild bootstrap matches the cumulants of realized betas-based t-statistics, whereas it provides a third-order asymptotic refinement for realized volatility. Monte Carlo simulations suggest that our new wild bootstrap methods improve upon the first-order asymptotic theory in finite samples and outperform the existing bootstrap methods for realized covolatility measures. We use empirical work to illustrate its uses in practice.
|
282 |
Modélisations et simulations numériques d'écoulements d'air dans des milieux micro poreux / Modeling and numerical simulation of air flows in porous micro-porous mediaVu, Thanh Long 12 December 2011 (has links)
Ce travail de thèse a pour objectif de simuler numériquement des écoulements de gaz dans des matrices poreuses dont les pores sont de taille micrométrique. On étudie l'influence des phénomènes de glissement hydrodynamique qui apparaissent lorsque la dimension caractéristique de micro- conduites est caractérisée par des nombres de Knudsen compris entre Kn = 0,01 et Kn = 0,1.Le mémoire de thèse est composé de cinq chapitres suivis d'une conclusion dans laquelle nous présentons quelques perspectives pour une suite de ce travail. Le chapitre I constitue le travail préliminaire de thèse qui s'est ensuite orienté vers des approches complémentaires. Le principe des méthodes d'homogénéisation périodique est d'abord exposé. Suit une présentation de deux méthodes de résolution dans l'espace de Fourier : l'approche en déformation et l'approche en contrainte. L'extension de ces méthodes à la résolution d'écoulements régis par l'équation de Stokes est ensuite décrite. Des applications aux cas d'écoulements à travers des réseaux de cylindres, avec condition d'adhérence ou avec condition de glissement, sont ensuite discutées. Deux techniques de modélisation des phénomènes de transport dans des milieux poreux saturés par un fluide monoconstituant sont présentées dans le second chapitre. La première est basée sur la méthode des développements asymptotiques, appelée aussi méthode d'homogénéisation. On explique que le processus consiste en trois étapes : description locale, localisation et description macroscopique. La seconde technique s'appuie sur la méthode de calcul de moyennes à l'échelle d'un VER. Le point de départ de cette méthode est basé sur des théorèmes donnant les expressions des moyennes de tous les opérateurs intervenant dans une équation de transport. Après une brève présentation du logiciel commercialisé que nous avons utilisé, nous exposons les études de convergence spatiale que nous avons effectuées et nous comparons nos solutions avec des résultats de la littérature dans le chapitre III. Diverses géométries sont considérées (allant de géométries planes à des empilements 3D de cubes ou de sphères).L'effet du glissement sur la perméabilité de milieux microporeux est abordé dans le chapitre IV. Le formalisme résultant de l'homogénéisation de structures périodiques est utilisé pour simuler numériquement des écoulements isothermes de gaz dans divers empilements de complexités croissantes. Les perméabilités sont déterminées en calculant les moyennes spatiales des champs de vitesses, solutions des équations de Stokes. Les valeurs obtenues en imposant des conditions d'adhérence sont comparées à celles obtenues avec des conditions de glissement du premier ordre. Dans le chapitre V, nous présentons des solutions pour des écoulements anisothermes et étudions l'effet du glissement sur la conductivité effective de milieux microporeux 2D et 3D. Dans ce chapitre, nous résolvons les équations de Navier-Stokes et de l'énergie en imposant des conditions de symétries dans une ou deux directions. A partir des solutions locales, sont calculées les moyennes intrinsèques des champs de vitesse et de température. Nous considérons des cas pour lesquels la condition d'équilibre thermique local peut être considérée comme satisfaite et d'autres correspondant à un non-équilibre thermique (NTLE). On détermine les conductivités de dispersion en fonction du nombre du Péclet et on montre l'influence du glissement sur les composantes longitudinales et transverses pour différentes porosités et longueur de glissement. Dans les cas NLTE, le coefficient macroscopique de transfert fluide-solide est aussi calculé / This thesis aims at numerically simulating gas flows in porous matrices with micro-sized pores. We study the influence of hydrodynamic slip phenomena that appear when the characteristic dimension of micro pores is characterized by Knudsen numbers between Kn = 0.01 and Kn = 0.1.The thesis consists of five chapters followed by a conclusion in which we present some perspectives for further studies. Chapter I is the preliminary work of thesis that turned into complementary approaches. The principle of periodic homogenization methods is first exposed. We present then two methods in the Fourier space: the stress approach and the strain approach. The extension of these methods for solving flows governed by the Stokes equation is described in what follows. Applications to flows through networks of cylinders, subjected to no slip or slip condition, are then discussed. Two techniques for modeling transport phenomena in porous media saturated by a mono-component fluid are presented in the second chapter. The first is based on the method of asymptotic expansions, also known as homogenization method, based on the concept of separation of scales. It is explained that the process consists of three steps: local description, localization and macroscopic description. The second technique is based on the method of averaging at the level of a representative elementary volume (REV). The starting point of this method is based on the equations of Continuum Mechanics and theorems giving the averaged expressions of all operators involved in a transport equation. We show that it extends easily to gas flows in micro porous media. After a short presentation of the commercial software used, we present the spatial convergence studies carried out and we compare our solutions with the results of the literature in Chapter III. Various geometries are considered (plane to 3D geometries made of cubes or spheres), but these comparisons are limited to isothermal flows. The effect of slip on the permeability in micro porous media is discussed in Chapter IV. The resulting formalism of the periodic homogenization structures is used for numerical simulation of isothermal gas in various geometries of increasing complexity. The permeabilities are determined by calculating the spatial averages of velocity fields, solutions of the Stokes equations. The values obtained by imposing no slip conditions are compared with first order slip conditions. We discuss the relative increase in permeability due to slip according to the geometry of the pores. In Chapter V, we present the solutions for anisothermal flows and we study the effect of slip on the effective conductivity in 2D and 3D microporous media. In this chapter, we solve the Navier-Stokes and energy equations by imposing symmetry conditions in one or two directions. The intrinsic mean velocity and temperature fields are calculated from these local solutions. We consider cases where the local thermal equilibrium condition can be considered as satisfied and other corresponding to a non-local thermal equilibrium (NLTE). We determine the dispersion conductivity based on the Péclet number and show the influence of velocity slip on longitudinal and transverse components for various porosities and slip lengths. In NLTE cases, the macroscopic fluid-to-solid heat transfer coefficient is also calculated
|
283 |
Equações diferenciais funcionais em medida e equações dinâmicas funcionais impulsivas em escalas temporais / Measure functional differential equations and impulse functional dynamic equations on time scalesMesquita, Jaqueline Godoy 03 September 2012 (has links)
O objetivo deste trabalho é investigar e desenvolver a teoria de equações dinâmicas funcionais impulsivas em escalas temporais. Mostramos que estas equações representam um caso especial de equações diferenciais funcionais em medida impulsivas. Também, apresentamos uma relação entre estas equações e as equações diferenciais funcionais em medida e, ainda, mostramos uma relação entre elas e as equações diferenciais ordinárias generalizadas. Relacionamos, também, as equações diferenciais funcionais em medida e as equações dinâmicas funcionais em escalas temporais. Obtemos resultados sobre existência e unicidade de soluções, dependência contínua, método da média periódico e não-periódico bem como resultados de estabilidade para todos os tipos de equações descritos anteriormente. Também, provamos algumas propriedades relativas às funções regradas e aos conjuntos equiregrados em espaços de Banach, que foram essenciais para os nossos propósitos. Os resultados novos apresentados neste trabalho estão contidos em 7 artigos, dos quais dois já foram publicados e um aceito. Veja [16], [32], [34], [36], [37], [38] e [84] / The aim of this work is to investigate and develop the theory of impulsive functional dynamic equations on time scales. We prove that these equations represent a special case of impulsive measure functional differential equations. Moreover, we present a relation between these equations and measure functional differential equations and, also, a correspondence between them and generalized ordinary differential equations. Also, we clarify the relation between measure functional differential equations and functional dynamic equations on time scales. We obtain results on the existence and uniqueness of solutions, continuous dependence on parameters, non-periodic and periodic averaging principles and stability results for all these types of equations. Moreover, we prove some properties concerning regulated functions and equiregulated sets in a Banach space which were essential to our purposes. The new results presented in this work are contained in 7 papers, two of which have already been published and one accepted. See [16], [32], [34], [36], [37], [38] and [84]
|
284 |
Étude expérimentale du couplage entre croissance bactérienne et transport d'un polluant organique en milieu poreux / Experimental study of coupling between bacterial growth and transport of an organic pollutant in a porous mediumKoné, Tiangoua 18 May 2012 (has links)
Un dispositif expérimental a été développé pour l'étude du couplage de la croissance d'un biofilm de Shewanella oneidensis MR-1 et du transport conservatif de l'Erioglaucine. La croissance du biofilm a été suivie par mesure de conductivité hydraulique et par acquisition d'images à l'aide d'une caméra digitale. La fraction volumique du biofilm a été caractérisée par des essais d'élution d'une macromolécule (i.e. : le Bleu Dextran) par analogie avec les méthodes de chromatographie d'exclusion ou de filtration sur gel. Ainsi au bout de 29 jours, un biofilm quasi-homogène sur l'ensemble de la cellule d'écoulement (0,1×0,1×0,05m3) et équivalent à 50% du volume poral a été formé. L'influence de la croissance du biofilm sur les propriétés de transport du milieu a été évaluée. Les essais de transport conservatif de l'Erioglaucine effectués pour deux vitesses d'injection et à deux stades de croissance du biofilm (17 et 29 jours) ont montré l'influence d'hétérogénéités locales sur les paramètres de transport (i.e. : la porosité, la perméabilité et la dispersion hydrodynamique). Ainsi après 17 jours de culture quand le biofilm occupe partiellement le milieu poreux (moitié inférieure) un modèle à deux équations ou double milieu permet de caractériser le transport conservatif. A contrario après 29 jours de culture où le biofilm occupe tout le milieu poreux, un comportement fickien classique caractérise le transport. Les valeurs théoriques du coefficient de dispersion longitudinale prédites par la méthode de prise de moyenne volumique ont permis de reproduire de manière satisfaisante le comportement observé expérimentalement / An experimental device was performed for the study of coupling the growth of a Shewanella oneidensis MR-1 bacterial biofilm and the non reactive transport of Brilliant Blue FCF. The biofilm growth was monitored by hydraulic conductivity measurements and by image acquisition with a digital camera. The biofilm volume fraction was estimated through tracer experiments with a macromolecular tracer (i.e., Dextran Blue) as in size-exclusion chromatography or gel filtration chromatography. Then after 29 days of bacterial culture a quasi-homogenous biofilm was grown in the whole flow cell (0,1×0,1×0,05m3) occupying about 50% of void space volume. The influence of biofilm growth on porous media transport properties was evaluated. Conservative tracer experiments with Brilliant Blue FCF run at two hydrodynamic conditions and at two growth steps of biofilm (17 and 29 days) showed the influence of local heterogeneities on transport parameters (i.e., porosity, permeability and hydrodynamic dispersion). Then at 17 days of growth when the biofilm partially covers the porous medium (bottom half of the flow cell) a two-equation model or double-layer model was suitable to characterize the conservative transport. A contrario after 29 days of growth, when the biofilm covers the whole porous medium, a classical fickian model was convenient. Numerical values of longitudinal dispersion coefficient from volume averaging well fitted experimental results
|
285 |
A game theoretic analysis of adaptive radar jammingBachmann, Darren John Unknown Date (has links) (PDF)
Advances in digital signal processing (DSP) and computing technology have resulted in the emergence of increasingly adaptive radar systems. It is clear that the Electronic Attack (EA), or jamming, of such radar systems is expected to become a more difficult task. The reason for this research was to address the issue of jamming adaptive radar systems. This required consideration of adaptive jamming systems and the development of a methodology for outlining the features of such a system is proposed as the key contribution of this thesis. For the first time, game-based optimization methods have been applied to a maritime counter-surveillance/counter-targeting scenario involving conventional, as well as so-called ‘smart’ noise jamming.Conventional noise jamming methods feature prominently in the origins of radar electronic warfare, and are still widely implemented. They have been well studied, and are important for comparisons with coherent jamming techniques.Moreover, noise jamming is more readily applied with limited information support and is therefore germane to the problem of jamming adaptive radars; during theearly stages when the jammer tries to learn about the radar’s parameters and its own optimal actions.A radar and a jammer were considered as informed opponents ‘playing’ in a non-cooperative two-player, zero-sum game. The effects of jamming on the target detection performance of a radar using Constant False Alarm Rate (CFAR)processing were analyzed using a game theoretic approach for three cases: (1) Ungated Range Noise (URN), (2) Range-Gated Noise (RGN) and (3) False-Target (FT) jamming.Assuming a Swerling type II target in the presence of Rayleigh-distributed clutter, utility functions were described for Cell-Averaging (CA) and Order Statistic (OS) CFAR processors and the three cases of jamming. The analyses included optimizations of these utility functions, subject to certain constraints, with respectto control variables (strategies) in the jammer, such as jammer power and spatial extent of jamming, and control variables in the radar, such as threshold parameter and reference window size. The utility functions were evaluated over the players’ strategy sets and the resulting matrix-form games were solved for the optimal or ‘best response’ strategies of both the jammer and the radar.
|
286 |
Systèmes désordonnés et frustrés: modèles champ moyen et problèmes d'optimisation combinatoireSchreiber, Georg R. 13 November 1997 (has links) (PDF)
Dans la présente thèse de doctorat je présente des résultats concernant des modèles désordonnés et frustrés venant de la physique statistique et de l'optimisation combinatoire. Comme application de la théorie des verres de spins, j'étudie le modèle de Blume, Emery et Griffiths désordonné et frustré. Ce modèle est traité dans l'approximation de champ moyen dans le cadre de la méthode des répliques A l'aide de l'Ansatz symétrique dans les répliques je présente une solution numérique complète puis je discute des effets de brisure de cette symétrie La stabilité de la solution symétrique a été Rudik et les régions instables identifiées Le diagramme de phase exhibe des transitions de premier et de second ordre. Le point tricritique persiste dans le modèle frustré, Ce qui est en accord avec des travaux antérieurs une version du modèle BEG avec un potentiel chimique désordonné a également été étudiée. les calculs confirment que le point tricritique apparaît à plus basse température quand il y a du désordre. Ensuite je considère le problème de la bipartition d'un graphe. Ce problème correspond du point de vue de la physique statistique h un verre de spins soumis h une contrainte d'aimantation totale nulle. je considère les propriétés statistiques des solutions de faible énergie engendrées par des algorithmes heuristiques. de tels algorithme sont en général conçus pour résoudre des problèmes d'optimisation combinatoire qui sont NP- difficiles. Plusieurs heuristiques ont 60 implémentées pour le problème de la bipartition de graphe. des lois d'échelle ont été obtenues : en particulier la moyenne et la variance du coût obéissent A une loi linéaire en N. Par conséquent le coût obtenu par des heuristiques est une quantité auto-moyennante. je suggère que cette propriété est générale valable aussi pour les solutions aléatoires pour les solutions quasi-optimales et pour les solutions optimales. En outre je propose une procédure pour comparer des algorithmes heuristiques. Cette procédure tient compte de la qualité de la solution aussi bien que du temps de calcul utilisé. Dans la troisième partie de ma thèse j'ai étudié en détail les propriétés h température nulle des verres de spins sur des graphes aléatoires lacunaires avec une coordination fixe. les verres de spins sur de tels graphes peuvent être considérés comme une approximation aux vrais verres de spins qui est plus réaliste que le modèle de Sherrington et Kirkpatrick. J'ai conçu un nouvel algorithme pour trouver les états fondamentaux. Aussi je teste numériquement une conjecture de Banavar, Sherrington et Sourlas qui donne la densité d'énergie du fondamental dans la limite de grande taille en fonction de la coordination. La distribution du paramètre d'ordre se révèle être non triviale et les données présentent une forte indication de la présence d'ultramétricité pour toutes les valeur de la coordination. Ces résultats confirment que les propriétés particulières des verres de spin, déduites an niveau de l'approximation de champ moyen dans le cadre du modèle de Sherrington et Kirkpatrick, sont aussi présentes pour des modèles plus réalistes comme les verres de spins sur des graphes aléatoires lacunaires avec une coordination fixe.
|
287 |
Tracker-aware Detection: A Theoretical And An Experimental StudyAslan, Murat Samil 01 February 2009 (has links) (PDF)
A promising line of research attempts to bridge the gap between detector and tracker by means of considering jointly optimal parameter settings for both of these subsystems. Along this fruitful path, this thesis study focuses on the problem of detection threshold optimization in a tracker-aware manner so
that a feedback from the tracker to the detector is established to maximize the overall system performance. Special emphasis is given to the optimization schemes based on two non-simulation performance prediction (NSPP) methodologies for the probabilistic data association filter (PDAF), namely, the modified Riccati equation (MRE) and the hybrid conditional averaging (HYCA) algorithm.
The possible improvements are presented in two domains: Non-maneuvering and maneuvering target tracking. In the first domain, a number of algorithmic and experimental evaluation gaps are identified and newly proposed methods are compared with the existing ones in a unified theoretical and experimental
framework. Furthermore, for the MRE based dynamic threshold optimization problem, a closed-form solution is proposed. This solution brings a theoretical lower bound on the operating signal-to-noise ratio (SNR) concerning when the tracking system should be switched to the track before detect (TBD) mode.
As the improvements of the second domain, some of the ideas used in the first domain are extended to the maneuvering target tracking case. The primary contribution is made by extending the dynamic optimization schemes applicable to the PDAF to the interacting multiple model probabilistic data association filter (IMM-PDAF). Resulting in an online feedback from the filter
to the detector, this extension makes the tracking system robust against track losses under low SNR values.
|
288 |
Mélanges bayésiens de modèles d'extrêmes multivariés, Application à la prédétermination régionale des crues avec données incomplètes.Anne, Sabourin 24 September 2013 (has links) (PDF)
La théorie statistique univariée des valeurs extrêmes se généralise au cas multivarié mais l'absence d'un cadre paramétrique naturel complique l'inférence de la loi jointe des extrêmes. Les marges d'erreur associées aux estimateurs non paramétriques de la structure de dépendance sont difficilement accessibles à partir de la dimension trois. Cependant, quantifier l'incertitude est d'autant plus important pour les applications que le problème de la rareté des données extrêmes est récurrent, en particulier en hydrologie. L'objet de cette thèse est de développer des modèles de dépendance entre extrêmes, dans un cadre bayésien permettant de représenter l'incertitude. Après une introduction à la théorie des valeurs extrêmes et à l'inférence bayésienne (chapitre 1), le chapitre 2 explore les propriétés des modèles obtenus en combinant des modèles paramétriques existants, par mélange bayésien (Bayesian Model Averaging). Un modèle semi-paramétrique de mélange de Dirichlet est étudié au chapitre suivant : une nouvelle paramétrisation est introduite afin de s'affranchir d'une contrainte de moments caractéristique de la structure de dépendance et de faciliter l'échantillonnage de la loi a posteriori. Le chapitre~\ref{censorDiri} est motivé par une application hydrologique: il s'agit d'estimer la structure de dépendance spatiale des crues extrêmes dans la région cévenole des Gardons en utilisant des données historiques enregistrées en quatre points. Les données anciennes augmentent la taille de l'échantillon mais beaucoup de ces données sont censurées. Une méthode d'augmentation de données est introduite, dans le cadre du mélange de Dirichlet, palliant l'absence d'expression explicite de la vraisemblance censurée. Les perspectives sont discutées au chapitre 5.
|
289 |
Landslide Risk Assessment using Digital Elevation ModelsMcLean, Amanda 22 March 2011 (has links)
Regional landslide risk, as it is most commonly defined, is a product of the following: hazard, vulnerability and exposed population. The first objective of this research project is to estimate the regional landslide hazard level by calculating its probability of slope failure based on maximum slope angles, as estimated using data provided by digital elevation models (DEM). Furthermore, it addresses the impact of DEM resolution on perceived slope angles, using local averaging theory, by comparing the results predicted from DEM datasets of differing resolutions. Although the likelihood that a landslide will occur can be predicted with a hazard assessment model, the extent of the damage inflicted upon a region is a function of vulnerability. This introduces the second objective of this research project: vulnerability assessment. The third and final objective concerns the impact of urbanization and population growth on landslide risk levels.
|
290 |
Multiagent system simulations of sealed-bid, English, and treasury auctionsMehlenbacher, Alan 26 November 2007 (has links)
I have developed a multiagent system platform that provides a valuable complement to the alternative research methods. The platform facilitates the development of heterogeneous agents in complex environments. The first application of the multiagent system is to the study of sealed-bid auctions with two-dimensional value signals from pure private to pure common value. I find that several auction outcomes are significantly nonlinear across the two-dimensional value signals. As the common value percent increases, profit, revenue, and efficiency all decrease monotonically, but they decrease in different ways. Finally, I find that forcing revelation by the auction winner of the true common value may have beneficial revenue effects when the common-value percent is high and there is a high degree of uncertainty about the common value. The second application of the multiagent system is to the study of English auctions with two-dimensional value signals using agents that learn a signal-averaging factor. I find that signal averaging increases nonlinearly as the common value percent increases, decreases with the number of bidders, and decreases at high common value percents when the common value signal is more uncertain. Using signal averaging, agents increase their profit when the value is more uncertain. The most obvious effect of signal averaging is on reducing the percentage of auctions won by bidders with the highest common value signal. The third application of the multiagent system is to the study of the optimal payment rule in Treasury auctions using Canadian rules. The model encompasses the when-issued, auction, and secondary markets, as well as constraints for primary dealers. I find that the Spanish payment rule is revenue inferior to the Discriminatory payment rule across all market price spreads, but the Average rule is revenue superior. For most market-price spreads, Uniform payment results in less revenue than Discriminatory, but there are many cases in which Vickrey payment produces more revenue.
|
Page generated in 0.0644 seconds