• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 27
  • 7
  • 1
  • Tagged with
  • 100
  • 100
  • 39
  • 35
  • 22
  • 21
  • 19
  • 17
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Microscopic crowd simulation : evaluation and development of algorithms / Simulation microscopique de foules : évaluation et développement d'algorithmes

Wolinski, David 22 January 2016 (has links)
Dû au grand intérêt porté à la simulation de foules, beaucoup d'algorithmes ont été et sont encore proposés. Toutefois, (1) il n'existe pas de méthode standard pour évaluer le réalisme et la flexibilité de ces algorithmes, et (2) même les algorithmes les plus récents produisent encore des artéfacts évidents. Abordant la première question, nous proposons une méthode visant à évaluer le réalisme des algorithmes de simulation de foules d'une manière objective et impartiale. ''Objective'' grâce à des métriques quantifiant la similitude entre les simulations et des données acquises en situation réelle. ''Impartiale'' grâce à l'estimation de paramètres permettant d'étalonner automatiquement les algorithmes en vue de décrire au mieux les données (par rapport aux métriques), permettant de comparer les algorithmes au mieux de leur capacité. Nous explorons aussi comment ce processus permet d'augmenter le niveau de contrôle d'un utilisateur sur la simulation tout en réduisant son implication. Abordant la deuxième question, nous proposons un nouvel algorithme d'évitement de collisions. Alors que les algorithmes existants prédisent les collisions en extrapolant linéairement les trajectoires des agents, nous allons au-delà grâce à une approche probabiliste et non-linéaire, prenant en compte entre autres la configuration de l'environnement, les trajectoires passées et les interactions avec les obstacles. Nous éliminons ainsi des simulations résultantes des artefacts tels que : les ralentissements et les agglomérats dérangeants d'agents, les mouvements oscillatoires non naturels, ou encore les manœuvres d'évitement exagérées/fausses/de dernière minute. Dans une troisième contribution, nous abordons aussi l'utilisation de notre travail sur l'évaluation et l'estimation de paramètres dans le cadre de systèmes plus larges. Dans un premier temps, nous l'appliquons à la simulation d'insectes, prenant en charge leur comportement local. Après avoir complété le système aux niveaux intermédiaire et global, cette approche basée-données est capable de simuler correctement des essaims d'insectes. Dans un second temps, nous appliquons notre travail au suivi de piétons, construisant un ''méta-algorithme'' servant à calculer la probabilité de transition d'un filtre particulaire, et surpassant les systèmes existants. / With the considerable attention crowd simulation has received, many algorithms have been and are being proposed. Yet, (1) there exists no standard scheme to evaluate the accuracy and flexibility of these algorithms, and (2) even the most recent algorithms produce noticeable simulation artifacts. Addressing the first issue, we propose a framework aiming to provide an objective and fair evaluation of the realism of crowd simulation algorithms. ''Objective'' here means the use of various metrics quantifying the similarity between simulations and ground-truth data acquired with real pedestrians. ''Fair'' here means the use of parameter estimation to automatically tune the tested algorithms to match the ground-truth data as closely as possible (with respect to the metrics), effectively allowing to compare algorithms at the best of their capability. We also explore how this process can increase a user's control on the simulation while reducing the amount of necessary intervention. Addressing the second issue, we propose a new collision-avoidance algorithm. Where current algorithms predict collisions by linearly extrapolating agents' trajectories, we better predict agents' future motions in a probabilistic, non-linear way, taking into account environment layout, agent's past trajectories and interactions with other obstacles among other cues. Resulting simulations do away with common artifacts such as: slowdowns and visually erroneous agent agglutinations, unnatural oscillation motions, or exaggerated/last-minute/false-positive avoidance manoeuvres. In a third contribution, we also explore how evaluation and parameter estimation can be used as part of wider systems. First, we apply it to insect simulation, taking care of local insect behavior. After completing it at the intermediate and global levels, the resulting data-driven system is able to correctly simulate insect swarms. Second, we apply our work to pedestrian tracking, constructing a ''meta-algorithm'', more accurately computing motion priors for a particle-filter-based tracker, outperforming existing systems.
32

Statistical modeling and detection for digital image forensics / Modélisation et déctection statistiques pour la criminalistique des images numériques

Thai, Thanh Hai 28 August 2014 (has links)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d’images se sont démocratisés et permettent aujourd’hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu’il s’agit de savoir si ce que l’on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et proposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La méthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les paramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les performances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée / The twenty-first century witnesses the digital revolution that allows digital media to become ubiquitous. They play a more and more important role in our everyday life. Similarly, sophisticated image editing software has been more accessible, resulting in the fact that falsified images are appearing with a growing frequency and sophistication. The credibility and trustworthiness of digital images have been eroded. To restore the trust to digital images, the field of digital image forensics was born. This thesis is part of the field of digital image forensics. Two important problems are addressed: image origin identification and hidden data detection. These problems are cast into the framework of hypothesis testing theory. The approach proposes to design a statistical test that allows us to guarantee a prescribed false alarm probability. In order to achieve a high detection performance, it is proposed to exploit statistical properties of natural images by modeling the main steps of image processing pipeline of a digital camera. The methodology throughout this manuscript consists of studying an optimal test given by the Likelihood Ratio Test in the ideal context where all model parameters are known in advance. When the model parameters are unknown, a method is proposed for parameter estimation in order to design a Generalized Likelihood Ratio Test whose statistical performances are analytically established. Numerical experiments on simulated and real images highlight the relevance of the proposed approach
33

Modeling, optimization and estimation for the on-line control of trading algorithms in limit-order markets / Modélisation, optimisation et estimation pour le contrôle au fil de l'eau des algorithmes de trading

Fernandez Tapia, Joaquin 10 September 2015 (has links)
L'objectif de ce travail de thèse est une étude quantitive des differents problèmes mathematiques qui apparaissent en trading algorithmique. Concrètement, on propose une approche scientifique pour optimiser des processus relatifs a la capture et provision de liquidités pour des marchés electroniques.Du au fort caractère appliqué de ce travail, on n'est pas seulement intéressés par la rigeur mathématique de nos résultats, mais on souhaite aussi a comprendre ce travail de recherche dans le contexte des differentes étapes qui font partie de l'implementation pratique des outils que l'on developpe; par exemple l'interpretation du modèle, l'estimation de parametres, l'implementation informatique etc.Du point de vue scientifique, le coeur de notre travail est fondé sur deux techniques empruntées au monde de l'optimisation et des probabilités, celles sont : le contrôle stochastique et l'approximation stochastique.En particulier, on présente des resultats academiques originaux pour le probleme de market-making haute fréquence et le problème de liquidation de portefeuille en utilisant des limit-orders; dans le deux cas on utilise une approche d'optimisation dite backwards. De la même façon, on résout le problème de market-making en utilisant une approche "forward", ceci étant innovateur dans la litterature du trading optimal car il ouvre la porte à des techniques d'apprentissage automatique.Du pont de vue pratique, cette thèse cherches à creer un point entre la recherche academique et l'industrie financière. Nos resultats sont constamment considérés dans la perspective de leur implementation pratique. Ainsi, on concentre une grande partie de notre travail a étudier les differents facteurs qui sont importants a comprendre quand on transforme nos techniques quantitatives en valeur industrielle: comprendre la microstructure des marchés, des faits stylisés, traitrement des données, discussions sur les modèles, limitations de notre cadre scientifique etc. / This PhD thesis focuses on the quantitative analysis of mathematical problems arising in the field of optimal algorithmic trading. Concretely, we propose a scientific approach in order to optimize processes related to the capture and provision of liquidity in electronic markets. Because of the strongly industry-focused character of this work, not only we are interested in giving rigorous mathematical results but also to understand this research project in the context of the different stages that come into play during the practical implementation of the tools developed throughout the following chapters (e.g. model interpretation, parameter estimation, programming etc.).From a scientific standpoint the core of our work focuses on two techniques taken from the world of optimization and probability; these are, stochastic control and stochastic approximation. In particular, we provide original academic results for the problem of high frequency market making and the problem of portfolio liquidation by using limit orders; both by using a backward optimization approach. We also propose a forward optimization framework to solve the market making problem; the latter approach being quite innovative for optimal trading, as it opens the door for machine learning techniques.From a practical angle, this PhD thesis seeks to create a bridge between academic research and practitioners. Our mathematical findings are constantly put in perspective in terms of their practical implementation. Hence, we focus a large part of our work on studying the different factors that are of paramount importance to understand when transforming our quantitative techniques into industrial value: understanding the underlying market microstructure, empirical stylized facts, data processing, discussion about the models, limitations of our scientific framework etc.
34

Identification de paramètres hydrogéologiques dans un milieu poreux / Identification of hydrological parameters in a porous medium

Riahi, Mohamed Hédi 12 October 2016 (has links)
On identifie simultanément les coefficients d'emmagasinement et de transmissivité hydraulique dans un écoulement souterrain gouvernent par une équation parabolique linéaire. Ces deux paramètres sont supposés être des fonctions constantes par morceaux en espace. Les inconnues du problème sont non seulement les valeurs de ces coefficients mais aussi la géométrie des zones dans lesquelles ces coefficients sont constants. Le problème est formule comme la minimisation d'une fonction de moindres carres calculant la différence entre les mesures et les quantités correspondantes évaluées avec la valeur courante des paramètres. L'objectif principal de ce travail est la construction d'une technique de paramétrisation adaptative guidée par des indicateurs de raffinement. L'utilisation d'indicateurs de raffinement, nous permet de construisons la paramétrisation de façon itérative, on allant d'une paramétrisation à une seule zone à une paramétrisation avec m zones où m est une valeur optimale à identifier. Nous distinguons les cas ou les deux paramètres ont la même paramétrisation et le cas où les deux paramètres ont des paramétrisations différentes. Pour améliorer la résolution du problème inverse d'estimation de paramètres, nous incorporons des estimateurs d'erreurs a posteriori. / We identify simultaneously storage and hydraulic transmissivity coefficients in groundwater flow governed by a linear parabolic equation. Both parameters are assumed to be functions piecewise constant in space. The unknowns are the coefficient values as well as the geometry of the zones where these coefficients are constant. This problem is formulated as minimizing a least-square function calculating the difference between measurements and the corresponding quantities computed with the current parameters values. The main point of this work is to construct an adaptative parameterization technique guided by refinement indicators. Using refinement indicators, we build the parameterization iteratively, going from a one zone parametrization to a parametrization with $m$ zones where $m$ is an optimal value to identify. We distinguish the cases where the two parameters have the same parameterization and different parameterizations.\\ To improve the resolution of the inverse problem, we incorporate a posteriori error estimations.
35

Mathematical liver modeling : hemodynamics and function in hepatectomy / Modèles mathématiques de l'hémodynamique et de la fonction du foie lors d'une hépatectomie

Audebert, Chloé 24 February 2017 (has links)
L’ablation partielle du foie est une chirurgie qui intervient dans le traitement des lésions du foie et lors d’une transplantation partielle de foie. Les relations entre l’hémodynamique du foie, son volume et ses fonctions restent à élucider pour mieux comprendre les causes des complications de ces chirurgies. Lors de la chirurgie, l’hémodynamique du foie est altérée suite à l’augmentation de la résistance au flux sanguin de l’organe. La régénération du foie semble dépendante des changements de débit et de pression dans la veine porte. D’autre part, comme le foie reçoit 25% du débit cardiaque, la chirurgie impacte la circulation sanguine globale.
 Dans ce contexte, le premier objectif est de mieux comprendre, grâce à des modèles mathématiques, l’influence de l’hépatectomie sur l’hémodynamique. Le second objectif est l’analyse de la perfusion et de la fonction du foie. Premièrement, la procédure chirurgicale, les conditions expérimentales ainsi que les mesures obtenues sont détaillées.
 Ensuite, les valeurs moyennes mesurées lors de douze chirurgies sont reproduites par un modèle de circulation entière, basé sur des équations différentielles ordinaires. Lors des différentes hépatectomies, des changements de forme de courbe sont observés. Un modèle de circulation entière, basée sur des équations 1D et 0D est proposé pour analyser ces changements. Ce travail pourrait permettre une meilleure compréhension des changements d’architecture du foie induits par l’hépatectomie.
 Puis, le transport dans le sang d’un composé ainsi que son traitement par le foie sont modélisés. Un modèle pharmacocinétique est développé et grâce aux mesures, les paramètres du modèle sont estimés. / Major liver resection is being performed to treat liver lesions or for adult-to-adult living donor liver transplantation. Complications of these surgeries are related to a poor liver function. The links between liver hemodynamics, liver volume and liver function remain unclear and are important to better understand these complications. The surgery increases the resistance to blood flow in the organ, therefore it modifies liver hemodynamics. Large modifications of the portal vein hemodynamics have been associated with poor liver regeneration. Moreover the liver receives 25% of the cardiac outflow, therefore liver surgery may impact the whole blood circulation. In this context, the first goal is to investigate with mathematical models the impact of liver surgery on liver hemodynamics. The second goal is to study the liver perfusion and function with mathematical models. The first part describes the experimental conditions and reports the measurements recorded. Then, the second part focuses on the liver hemodynamics during partial hepatectomy. On one hand, the hemodynamics during several surgeries is quantitatively reproduced and explained by a closed-loop model based on ODE. On the other hand, the change of waveforms observed after different levels of liver resection is reproduced with a model of the global circulation, including 0D and 1D equations. This may contribute to a better understanding of the change of liver architecture induced by hepatectomy. Next, the transport in blood of a compound is studied. And a pharmacokinetics model and its parameter identification are developed to quantitatively analyze indocyanine green fluorescence dynamics in the liver tissue.
36

Personnalisation robuste de modèles 3D électromécaniques du cœur. Application à des bases de données cliniques hétérogènes et longitudinales / Robust personalisation of 3D electromechanical cardiac models. Application to heterogeneous and longitudinal clinical databases

Molléro, Roch 19 December 2017 (has links)
La modélisation cardiaque personnalisée consiste à créer des simulations 3D virtuelles de cas cliniques réels pour aider les cliniciens à prédire le comportement du cœur ou à mieux comprendre certaines pathologies. Dans cette thèse nous illustrons d'abord la nécessité d'une approche robuste d'estimation des paramètres, dans un cas ou l'incertitude dans l'orientation des fibres myocardiques entraîne une incertitude dans les paramètres estimés qui est très large par rapport à leur variabilité physiologique. Nous présentons ensuite une approche originale multi-échelle 0D/3D pour réduire le temps de calcul, basée sur un couplage multi-échelle entre les simulations du modèle 3D et d'une version "0D" réduite de ce modèle. Ensuite, nous dérivons un algorithme rapide de personnalisation multi-échelle pour le modèle 3D. Dans un deuxième temps, nous construisons plus de 140 simulations 3D personnalisées, dans le cadre de deux études impliquant l'analyse longitudinale de la fonction cardiaque : d'une part, l'analyse de l'évolution de cardiomyopathies à long terme, d'autre part la modélisation des changements cardiovasculaires pendant la digestion. Enfin, nous présentons un algorithme pour sélectionner automatiquement des directions observables dans l'espace des paramètres à partir d'un ensemble de mesures, et calculer des probabilités "a priori" cohérentes dans ces directions à partir des valeurs de paramètres dans la population. Cela permet en particulier de contraindre l'estimation de paramètres dans les cas où des mesures sont manquantes. Au final nous présentons des estimations cohérentes de paramètres dans une base de données de 811 cas avec le modèle 0D et 137 cas du modèle 3D. / Personalised cardiac modeling consists in creating virtual 3D simulations of real clinical cases to help clinicians predict the behaviour of the heart, or better understand some pathologies from the estimated values of biophysical parameters. In this work we first motivate the need for a consistent parameter estimation framework, from a case study were uncertainty in myocardial fibre orientation leads to an uncertainty in estimated parameters which is extremely large compared to their physiological variability. To build a consistent approach to parameter estimation, we then tackle the computational complexity of 3D models. We introduce an original multiscale 0D/3D approach for cardiac models, based on a multiscale coupling to approximate outputs of a 3D model with a reduced "0D" version of the same model. Then we derive from this coupling an efficient multifidelity optimisation algorithm for the 3D model. In a second step, we build more than 140 personalised 3D simulations, in the context of two studies involving the longitudinal analysis of the cardiac function: on one hand the analysis of long-term evolution of cardiomyopathies under therapy, on the other hand the modeling of short-term cardiovascular changes during digestion. Finally we present an algorithm to automatically detect and select observable directions in the parameter space from a set of measurements, and compute consistent population-based priors probabilities in these directions, which can be used to constrain parameter estimation for cases where measurements are missing. This enables consistent parameter estimations in a large databases of 811 cases with the 0D model, and 137 cases of the 3D model.
37

Problèmes de reconstruction en Imagerie par Résonance Magnétique parallèle à l'aide de représentations en ondelettes

Chaari, Lotfi 05 November 2010 (has links) (PDF)
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le "k-space". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle.
38

Nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température : De l'élaboration au développement de méthodes de caractérisation thermique de matériaux conducteurs orthotropes.

Acem, Zoubir 27 September 2007 (has links) (PDF)
Cette thèse a été effectuée dans le cadre des projets DISTOR (Européen) et HTPSTOCK (Français) qui visent à concevoir et étudier de nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température (>200°C). Elle est scindée en deux parties distinctes. <br />La première partie détaille les travaux relatifs à l'élaboration et la caractérisation thermique de ces nouveaux composites. On y présente les différentes voies d'élaboration des composites (dispersion, compression uniaxiale, isostatique) associées aux différents types de graphite (graphite naturel expansé (GNE), graphite synthétique) investigués au cours de cette thèse. On y retrouve également les résultats liés à la campagne de caractérisation thermique de ces composites permettant de mettre en exergue l'impact du graphite sur les propriétés conductrices des matériaux étudiés. A partir de ces résultats, des études de modélisation de l'évolution de la conductivité thermique ont pu être entrepris afin d'approfondir la compréhension de l'effet du graphite (quantité, taille de particules) sur la conductivité effective des composites.<br />La deuxième partie présente essentiellement les dispositifs de caractérisation thermique et les modèles thermocinétiques associés qui ont du être développés et adaptés aux spécificités des matériaux nouvellement élaborés. Cela concerne principalement les matériaux élaborés par compression, matériaux difficilement reproductible et possédant des propriétés orthotropes. La caractérisation de ce type de matériaux s'avère très délicate et pour le moins fastidieuse. C'est pourquoi nous nous sommes attachés à développer et adapter les moyens de caractérisation existants afin de permettre la caractérisation thermique complète d'un matériau conducteur orthotrope à partir d'une seule mesure sur un seul échantillon
39

Modèles graphiques évidentiels

Boudaren, Mohamed El Yazid 12 January 2014 (has links) (PDF)
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d'images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d'estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d'estimer les paramètres du modèle à partir de l'observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l'évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l'aspect hétérogène des distributions de bruit s'inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l'hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l'instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d'estimation des paramètres associées. L'intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles
40

Asymptotic study of covariance operator of fractional processes : analytic approach with applications / Études asymptotiques de l’opérateur de covariance pour les processus fractionnaires : approche analytique avec applications

Marushkevych, Dmytro 22 May 2019 (has links)
Les problèmes aux valeurs et fonctions propres surviennent fréquemment dans la théorie et dans les applications des processus stochastiques. Cependant quelques-uns seulement admettent une solution explicite; la résolution est alors généralement obtenue par la théorie généralisée de Sturm-Liouville pour les opérateurs différentiels. Les problèmes plus généraux ne peuvent pas être résolus sous une forme fermée et le sujet de cette thèse est l'analyse spectrale asymptotique des processus gaussiens fractionnaires et ses applications. Dans la première partie, nous développons une méthodologie pour l'analyse spectrale des opérateurs de covariance de type fractionnaire, correspondant à une famille importante de processus, incluant le processus fractionnaire d'Ornstein-Uhlenbeck, le mouvement brownien fractionnaire intégré et le mouvement brownien fractionnaire mixte. Nous obtenons des approximations asymptotiques du second ordre pour les valeurs propres et les fonctions propres. Au chapitre 2, nous considérons le problème aux valeurs et fonctions propres pour l'opérateur de covariance des ponts gaussiens. Nous montrons comment l'asymptotique spectrale d'un pont peut être dérivée de celle de son processus de base, en prenant comme exemple le cas du pont brownien fractionnaire. Dans la dernière partie, nous considérons trois applications représentatives de la théorie développée: le problème de filtrage des signaux gaussiens fractionnaires dans le bruit blanc, le problème de grande déviation pour le processus d'Ornstein-Uhlenbeck gouverné par un mouvement brownien fractionnaire mixte et probabilités des petites boules pour les processus gaussiens fractionnaires. / Eigenproblems frequently arise in theory and applications of stochastic processes, but only a few have explicit solutions. Those which do are usually solved by reduction to the generalized Sturm-Liouville theory for differential operators.The more general eigenproblems are not solvable in closed form and the subject of this thesis is the asymptotic spectral analysis of the fractional Gaussian processes and its applications.In the first part, we develop methodology for the spectral analysis of the fractional type covariance operators, corresponding to an important family of processes that includes the fractional Ornstein-Uhlenbeck process, the integrated fractional Brownian motion and the mixed fractional Brownian motion. We obtain accurate second order asymptotic approximations for both the eigenvalues and the eigenfunctions. In Chapter 2 we consider the covariance eigenproblem for Gaussian bridges. We show how the spectral asymptotics of a bridge can bederived from that of its base process, considering, as an example, the case of the fractional Brownian bridge. In the final part we consider three representative applications of the developed theory: filtering problem of fractional Gaussian signals in white noise, large deviation properties of the maximum likelihood drift parameter estimator for the Ornstein-Uhlenbeck process driven by mixed fractional Brownian motion and small ball probabilities for the fractional Gaussian processes.

Page generated in 0.5494 seconds