• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 7
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 37
  • 37
  • 12
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire / Processes and risk indicators in non-life insurance mathematics and food security

Tillier, Charles 19 June 2017 (has links)
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques / Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results.
22

Simulações atomísticas de eventos raros através de Transition Path Sampling / Atomistic simulation of rare events using Transition Path Sampling

Poma Bernaola, Adolfo Maximo 09 October 2007 (has links)
Orientador: Maurice de Koning / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-08-08T20:27:57Z (GMT). No. of bitstreams: 1 PomaBernaola_AdolfoMaximo_M.pdf: 3697892 bytes, checksum: a07c1ad647a61d9862283f697732410e (MD5) Previous issue date: 2007 / Resumo: Nesta dissertação abordamos o estudo de uma das limitações da simulação atomística denominada o evento raro, quem é responsável pela limitação temporal, exemplos de problemas que envolvem os eventos raros são, o enovelamento de proteínas, mudanças conformacionais de moléculas, reações químicas (em solução), difusão de sólidos e os processos de nucleação numa transição de fase de 1a ordem, entre outros. Métodos convencionais como Dinâmica Molecular (MD) ou Monte Carlo (MC) são úteis para explorar a paisagem de energia potencial de sistemas muito complexos, mas em presença de eventos raros se tornam muito ineficientes, devido à falta de estatística na amostragem do evento. Estes métodos gastam muito tempo computacional amostrando as configurações irrelevantes e não as transições de interesse. Neste sentido o método Transition Path Sampling (TPS), desenvolvido por D. Chandler e seus colaboradores, consegue explorar a paisagem de energia potencial e obter um conjunto de verdadeiras trajetórias dinâmicas que conectam os estados metaestáveis em presença de evento raros. A partir do ensemble de caminhos a constante de reação e o mecanismo de reação podem ser extraídos com muito sucesso. Neste trabalho de mestrado implementamos com muito sucesso o método TPS e realizamos uma comparação quantitativa em relação ao método MC configuracional num problema padrão da isomerização de uma molécula diatômica imersa num líquido repulsivo tipo Weeks-Chandler-Andersen (WCA). A aplicação destes métodos mostrou como o ambiente, na forma de solvente, pode afetar a cinética de um evento raro / Abstract: In this dissertation we aproach the study of one of the limitations of the atomistic simulation called the rare event, which is responsible for the temporal limitation. Examples of problems that involve the rare event are the folding protein, conformational changes in molecules, chemical reactions (in solution), solid diffusion, and the processes of nucleation in a first-order phase transition, among other. Conventional methods as Molecular Dynamics (MD) or Monte Carlo (MC) are useful to explore the potencial energy landscape of very complex systems, but in presence of rare events they become very inefficient, due to lack of statistics in the sampling of the event. These methods spend much computational time sampling the irrelevant configurations and not the transition of interest. In this sense, the Transition Path Sampling (TPS) method, developed by D. Chandler and his collaborators, can explore the potential energy landscape and get a set of true dynamical trajectories that connect the metastable states in presence of the rare events. From this ensemble of trajectories the rate constant and the mechanism of reaction can be extracted with great success. In this work we implemented the TPS method and carried out a quantitative comparison in relation to the configurational MC method in a standard problem of the isomerization of a diatomic molecule immersed in a Weeks-Chandler-Andersen (WCA) repulsive fluid. The application of these methods showed as the environment, in the form of solvent, can affect the kinetic of a rare event / Mestrado / Física Estatistica e Termodinamica / Mestre em Física
23

Approche probabiliste du diagnostic de l'état de santé des véhicules militaires terrestres en environnement incertain / Probabilistic approach to the diagnosis of the health status of military land vehicles in an uncertain environment

Sallin, Mathieu 30 January 2018 (has links)
Ce travail de thèse est une contribution à l’analyse de santé structurale de la caisse de véhicules militaires terrestres à roues. Appartenant à la gamme 20 - 30 tonnes, de tels véhicules sont déployés dans des contextes opérationnels variés où les conditions de roulage sont sévères et difficilement caractérisables. De plus, faisant face à la concurrence, la fonction mobilité des véhicules est acquise auprès de fournisseurs et n’est plus développée par Nexter Systems. De ce fait, la définition complète de cette fonction n’est plus connue. S’appuyant sur ce contexte, l’objectif principal de la thèse est d’aborder l’état de santé de la structure porteuse par approche probabiliste, afin de maitriser les techniques de calcul permettant la prise en compte de l’aléa intrinsèque des chargements liés à la diversité d’emploi des véhicules militaires terrestres. En particulier, les stratégies les plus pertinentes pour propager les incertitudes de roulage au sein d’un modèle mécanique d’un véhicule terrestre sont définies. Ces travaux décrivent comment il est possible d’exploiter une grandeur d’intérêt au sein du véhicule dans un objectif d’évaluation de la fiabilité par rapport à un critère de dommage donné. Une application sur un démonstrateur entièrement conçu par Nexter Systems illustre l’approche proposée. / This thesis is a contribution to the structural health analysis of the body of ground military vehicles. Belonging to the 20 - 30 tons range, such vehicles are deployed in a variety of operational contexts where driving conditions are severe and difficult to characterize. In addition, due to a growing industrial competition, the mobility function of vehicles is acquired from suppliers and is no longer developed by Nexter Systems. As a result, the complete definition of this function is unknown. Based on this context, the main objective of this thesis is to analyze the health of the vehicle body using a probabilistic approach in order to control the calculation techniques allowing to take into account the random nature of loads related to the use of ground military vehicles. In particular, the most relevant strategies for propagating uncertainties due to the terrain within a vehicle dynamics model are defined. This work describes how it is possible to manage an observation data measured in the vehicle for the purpose of assessing the reliability with respect to a given damage criterion. An application on a demonstrator entirely designed by Nexter Systems illustrates the proposed approach.
24

Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension / Development of AK-based method for reliability analyses. Focus on rare events and high dimension

Lelièvre, Nicolas 13 December 2018 (has links)
Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l’augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L’estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d’appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d’un modèle mathématique représentatif du modèle coûteux avec un temps d’évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu’elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l’estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d’évaluation du métamodèle, un nouveau critère d’arrêt sur l’apprentissage plus stricte permettant d’assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l’estimation de probabilités de défaillance en grande dimension, c’est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d’entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l’objet d’une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018. / Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018.
25

Étude d’un détecteur sphérique gazeux pour la recherche d’événements rares à bas seuil en énergie / Study of a spherical gaseous detector for research of rare events at low energy threshold

Dastgheibi Fard, Ali 31 October 2014 (has links)
Le détecteur proportionnel sphérique gazeux, SPC (Spherical Proportional Counter), est un nouveau concept de détecteur de particules. Ses principales caractéristiques sont : un seuil très bas en énergie indépendant du volume (faible capacité électronique), une bonne résolution en énergie, une grande robustesse et une seule voie de lecture. SEDINE, un détecteur bas bruit de fond, destiné à la recherche de matière noire légère, a été fabriqué et installé au Laboratoire Souterrain de Modane. Il est actuellement opérationnel et vise à mesurer les évènements rares à bas seuil en énergie. La sensibilité dans la détection d’événements rares étant à basse énergie directement corrélée au niveau du bruit de fond du détecteur, la diminution du seuil en énergie ainsi que celle du bruit de fond ont été la problématique principale de cette thèse. Un effort important a été consacré à la mise en opération du dispositif expérimental. Plusieurs paramètres de détection ont été optimisés : homogénéité du champ électrique dans le volume de l’enceinte, tenue aux étincelles, niveau du bruit de fond électronique et l’étanchéité du détecteur. Le détecteur a été optimisé pour assurer un fonctionnement avec un gain stable à haute pression. La modification du blindage, les nettoyages de l’enceinte du détecteur et l’ajout d’une tente anti-Radon ont permis de réduire significativement le bruit de fond de SEDINE. Les progrès accomplis ont permis d’augmenter la sensibilité du détecteur à basse énergie à une valeur comparable, pour des WIMPs à basse masse, aux autres expériences de recherche souterraines. Nous présentons donc des résultats avec un bruit de fond mesuré, dans la région du keV, qui nous permet de donner une figure d’exclusion compétitive pour la production de la matière noire légère. / The Spherical gaseous detector (or Spherical Proportional Counter, SPC) is a novel type of a particle detector, with a broad range of applications. Its main features in- clude a very low energy threshold which is independent of the volume (due to its very low capacitance), a good energy resolution, robustness and a single detection readout channel. SEDINE, a low background detector installed at the underground site of Laboratoire Souterrain de Modane is currently being operated and aims at measuring events at a very low energy threshold, around 40 eV. The sensitivity for the rare events detection at low energy is correlated to the detector background and to the decreasing the level of energy threshold, which was the main point of this thesis. A major effort has been devoted to the operating of the experimental detector. Several detection parameters were optimized: the electric field homogeneity in the sphere, keeping clear of sparks, the electronic noise level and the leak rate of the detector. The detector is optimized for operation with a high pressure stable gain. The modification of the shield, cleanings of the detector and the addition of an anti-Radon tent have significantly reduced the background of SEDINE. Progress has increased the sensitivity of the detector at low energy up to a value comparable to the results other underground research experiences for the low mass WIMPs. We will present the results with a measured background in the region of keV, which has allowed us to show a competitive figure of exclusion for the production of light dark matter.
26

Emergent behavior based implements for distributed network management

Wittner, Otto January 2003 (has links)
<p>Network and system management has always been of concern for telecommunication and computer system operators. The need for standardization was recognised already 20 years ago, hence several standards for network management exist today. However, the ever-increasing number of units connected to networks and the ever-increasing number of services being provided results in significant increased complexity of average network environments. This challenges current management systems. In addition to the general increase in complexity the trend among network owners and operators of merging several single service networks into larger, heterogeneous and complex full service networks challenges current management systems even further. The full service networks will require management systems more powerful than what is possible to realize basing systems purely on todays management standards. This thesis presents a distributed stochastic optimization algorithm which enables implementations of highly robust and efficient management tools. These tools may be integrated into management systems and potentially make the systems more powerful and better prepared for management of full service networks.</p><p>Emergent behavior is common in nature and easily observable in colonies of social insects and animals. Even an old oak tree can be viewed as an emergent system with its collection of interacting cells. Characteristic for any emergent system is how the overall behavior of the system emerge from many relatively simple, restricted behaviors interacting, e.g. a thousand ants building a trail, a flock of birds flying south or millions of cells making a tree grow. No centralized control exist, i.e. no single unit is in charge making global decisions. Despite distributed control, high work redundancy and stochastic behavior components, emergent systems tend to be very efficient problem solvers. In fact emergent systems tend to be both efficient, adaptive and robust which are three properties indeed desirable for a network management system. The algorithm presented in this thesis relates to a class of emergent behavior based systems known as swarm intelligence systems, i.e. the algorithm is potentially efficient, adaptive and robust.</p><p>On the contrary to other related swarm intelligence algorithms, the algorithm presented has a thorough formal foundation. This enables a better understanding of the algorithm’s potentials and limitations, and hence enables better adaptation of the algorithm to new problem areas without loss of efficiency, adaptability or robustness. The formal foundations are based on work by Reuven Rubinstein on cross entropy driven optimization. The transition from Ruinstein’s centralized and synchronous algorithm to a distributed and asynchronous algorithm is described, and the distributed algorithm’s ability to solve complex problems (NP-complete) efficiently is demonstrated.</p><p>Four examples of how the distributed algorithm may be applied in a network management context are presented. A system for finding near optimal patterns of primary/backup paths together with a system for finding cyclic protection paths in mesh networks demonstrate the algorithm’s ability to act as a tool helping management system to ensure quality of service. The algorithm’s potential as a management policy implementation mechanism is also demonstrated. The algorithm’s adaptability is shown to enable resolution of policy conflicts in a soft manner causing as little loss as possible. Finally, the algorithm’s ability to find near optimal paths (i.e. sequences) of resources in networks of large scale is demonstrated.</p>
27

Emergent behavior based implements for distributed network management

Wittner, Otto January 2003 (has links)
Network and system management has always been of concern for telecommunication and computer system operators. The need for standardization was recognised already 20 years ago, hence several standards for network management exist today. However, the ever-increasing number of units connected to networks and the ever-increasing number of services being provided results in significant increased complexity of average network environments. This challenges current management systems. In addition to the general increase in complexity the trend among network owners and operators of merging several single service networks into larger, heterogeneous and complex full service networks challenges current management systems even further. The full service networks will require management systems more powerful than what is possible to realize basing systems purely on todays management standards. This thesis presents a distributed stochastic optimization algorithm which enables implementations of highly robust and efficient management tools. These tools may be integrated into management systems and potentially make the systems more powerful and better prepared for management of full service networks. Emergent behavior is common in nature and easily observable in colonies of social insects and animals. Even an old oak tree can be viewed as an emergent system with its collection of interacting cells. Characteristic for any emergent system is how the overall behavior of the system emerge from many relatively simple, restricted behaviors interacting, e.g. a thousand ants building a trail, a flock of birds flying south or millions of cells making a tree grow. No centralized control exist, i.e. no single unit is in charge making global decisions. Despite distributed control, high work redundancy and stochastic behavior components, emergent systems tend to be very efficient problem solvers. In fact emergent systems tend to be both efficient, adaptive and robust which are three properties indeed desirable for a network management system. The algorithm presented in this thesis relates to a class of emergent behavior based systems known as swarm intelligence systems, i.e. the algorithm is potentially efficient, adaptive and robust. On the contrary to other related swarm intelligence algorithms, the algorithm presented has a thorough formal foundation. This enables a better understanding of the algorithm’s potentials and limitations, and hence enables better adaptation of the algorithm to new problem areas without loss of efficiency, adaptability or robustness. The formal foundations are based on work by Reuven Rubinstein on cross entropy driven optimization. The transition from Ruinstein’s centralized and synchronous algorithm to a distributed and asynchronous algorithm is described, and the distributed algorithm’s ability to solve complex problems (NP-complete) efficiently is demonstrated. Four examples of how the distributed algorithm may be applied in a network management context are presented. A system for finding near optimal patterns of primary/backup paths together with a system for finding cyclic protection paths in mesh networks demonstrate the algorithm’s ability to act as a tool helping management system to ensure quality of service. The algorithm’s potential as a management policy implementation mechanism is also demonstrated. The algorithm’s adaptability is shown to enable resolution of policy conflicts in a soft manner causing as little loss as possible. Finally, the algorithm’s ability to find near optimal paths (i.e. sequences) of resources in networks of large scale is demonstrated.
28

Particle methods in finance / Les méthodes de particule en finance

Miryusupov, Shohruh 20 December 2017 (has links)
Cette thèse contient deux sujets différents la simulation d'événements rares et un transport d'homotopie pour l'estimation du modèle de volatilité stochastique, dont chacun est couvert dans une partie distincte de cette thèse. Les méthodes de particules, qui généralisent les modèles de Markov cachés, sont largement utilisées dans différents domaines tels que le traitement du signal, la biologie, l'estimation d'événements rares, la finance, etc. Il existe un certain nombre d'approches basées sur les méthodes de Monte Carlo, tels que Markov Chain Monte Carlo (MCMC), Monte Carlo séquentiel (SMC). Nous appliquons des algorithmes SMC pour estimer les probabilités de défaut dans un processus d'intensité basé sur un processus stable afin de calculer un ajustement de valeur de crédit (CV A) avec le wrong way risk (WWR). Nous proposons une nouvelle approche pour estimer les événements rares, basée sur la génération de chaînes de Markov en simulant le système hamiltonien. Nous démontrons les propriétés, ce qui nous permet d'avoir une chaîne de Markov ergodique et nous montrons la performance de notre approche sur l'exemple que nous rencontrons dans la valorisation des options. Dans la deuxième partie, nous visons à estimer numériquement un modèle de volatilité stochastique, et à le considérer dans le contexte d'un problème de transport, lorsque nous aimerions trouver «un plan de transport optimal» qui représente la mesure d'image. Dans un contexte de filtrage, nous le comprenons comme le transport de particules d'une distribution antérieure à une distribution postérieure dans le pseudo-temps. Nous avons également proposé de repondérer les particules transportées, de manière à ce que nous puissions nous diriger vers la zone où se concentrent les particules de poids élevé. Nous avons montré sur l'exemple du modèle de la volatilité stochastique de Stein-Stein l'application de notre méthode et illustré le biais et la variance. / The thesis introduces simulation techniques that are based on particle methods and it consists of two parts, namely rare event simulation and a homotopy transport for stochastic volatility model estimation. Particle methods, that generalize hidden Markov models, are widely used in different fields such as signal processing, biology, rare events estimation, finance, etc. There are a number of approaches that are based on Monte Carlo methods that allow to approximate a target density such as Markov Chain Monte Carlo (MCMC), sequential Monte Carlo (SMC). We apply SMC algorithms to estimate default probabilities in a stable process based intensity process to compute a credit value adjustment (CV A) with a wrong way risk (WWR). We propose a novel approach to estimate rare events, which is based on the generation of Markov Chains by simulating the Hamiltonian system. We demonstrate the properties, that allows us to have ergodic Markov Chain and show the performance of our approach on the example that we encounter in option pricing.In the second part, we aim at numerically estimating a stochastic volatility model, and consider it in the context of a transportation problem, when we would like to find "an optimal transport map" that pushes forward the measure. In a filtering context, we understand it as the transportation of particles from a prior to a posterior distribution in pseudotime. We also proposed to reweight transported particles, so as we can direct to the area, where particles with high weights are concentrated. We showed the application of our method on the example of option pricing with Stein­Stein stochastic volatility model and illustrated the bias and variance.
29

Numerical simulation and rare events algorithms for the study of extreme fluctuations of the drag force acting on an obstacle immersed in a turbulent flow / Simulation numérique et algorithmes d'échantillonnage d'évènements rares pour l'étude des fluctuations extrêmes de la force de traînée sur un obstacle immergé dans un écoulement turbulent

Lestang, Thibault 25 September 2018 (has links)
Cette thèse porte sur l'étude numérique des fluctuations extrêmes de la force de traînée exercée par un écoulement turbulent sur un corps immergé.Ce type d'évènement, très rare, est difficile à caractériser par le biais d'un échantillonnage direct, puisqu'il est alors nécessaire de simuler l'écoulement sur des durées extrêmement longues. Cette thèse propose une approche différente, basée sur l'application d'algorithmes d'échantillonnage d'événements rares. L'objectif de ces algorithmes, issus de la physique statistique, est de modifier la statistique d'échantillonnage des trajectoires d'un système dynamique, de manière à favoriser l'occurrence d'événements rares. Si ces techniques ont été appliquées avec succès dans le cas de dynamiques relativement simples, l'intérêt de ces algorithmes n'est à ce jour pas clair pour des dynamiques déterministes extrêmement complexes, comme c'est le cas pour les écoulement turbulents.Cette thèse présente tout d'abord une étude de la dynamique et de la statistique associée aux fluctuations extrêmes de la force de traînée sur un obstacle carré fixe immergé dans un écoulement turbulent à deux dimensions. Ce cadre simplifié permet de simuler la dynamique sur des durées très longues, permettant d'échantillonner un grand nombre de fluctuations dont l'amplitude est assez élevée pour être qualifiée d'extrême.Dans un second temps, l'application de deux algorithmes d’échantillonnage est présentée et discutée.Dans un premier cas, il est illustré qu'une réduction significative du temps de calcul d'extrêmes peut être obtenue. En outre, des difficultés liées à la dynamique de l'écoulement sont mises en lumière, ouvrant la voie au développement de nouveaux algorithmes spécifiques aux écoulements turbulents. / This thesis discusses the numerical simulation of extreme fluctuations of the drag force acting on an object immersed in a turbulent medium.Because such fluctuations are rare events, they are particularly difficult to investigate by means of direct sampling. Indeed, such approach requires to simulate the dynamics over extremely long durations.In this work an alternative route is introduced, based on rare events algorithms.The underlying idea of such algorithms is to modify the sampling statistics so as to favour rare trajectories of the dynamical system of interest.These techniques recently led to impressive results for relatively simple dynamics. However, it is not clear yet if such algorithms are useful for complex deterministic dynamics, such as turbulent flows.This thesis focuses on the study of both the dynamics and statistics of extreme fluctuations of the drag experienced by a square cylinder mounted in a two-dimensional channel flow.This simple framework allows for very long simulations of the dynamics, thus leading to the sampling of a large number of events with an amplitude large enough so as they can be considered extreme.Subsequently, the application of two different rare events algorithms is presented and discussed.In the first case, a drastic reduction of the computational cost required to sample configurations resulting in extreme fluctuations is achieved.Furthermore, several difficulties related to the flow dynamics are highlighted, paving the way to novel approaches specifically designed to turbulent flows.
30

Méthodes particulaires et applications en finance / Particle methods with applications in finance

Hu, Peng 21 June 2012 (has links)
Cette thèse est consacrée à l’analyse de ces modèles particulaires pour les mathématiques financières.Le manuscrit est organisé en quatre chapitres. Chacun peut être lu séparément.Le premier chapitre présente le travail de thèse de manière globale, définit les objectifs et résume les principales contributions. Le deuxième chapitre constitue une introduction générale à la théorie des méthodes particulaire, et propose un aperçu de ses applications aux mathématiques financières. Nous passons en revue les techniques et les résultats principaux sur les systèmes de particules en interaction, et nous expliquons comment ils peuvent être appliques à la solution numérique d’une grande variété d’applications financières, telles que l’évaluation d’options compliquées qui dépendent des trajectoires, le calcul de sensibilités, l’évaluation d’options américaines ou la résolution numérique de problèmes de contrôle et d’estimation avec observation partielle.L’évaluation d’options américaines repose sur la résolution d’une équation d’évolution à rebours, nommée l’enveloppe de Snell dans la théorie du contrôle stochastique et de l’arrêt optimal. Les deuxième et troisième chapitres se concentrent sur l’analyse de l’enveloppe de Snell et de ses extensions à différents cas particuliers. Un ensemble de modèles particulaires est alors proposé et analysé numériquement. / This thesis is concerned with the analysis of these particle models for computational finance.The manuscript is organized in four chapters. Each of them could be read separately.The first chapter provides an overview of the thesis, outlines the motivation and summarizes the major contributions. The second chapter gives a general in- troduction to the theory of interacting particle methods, with an overview of their applications to computational finance. We survey the main techniques and results on interacting particle systems and explain how they can be applied to the numerical solution of a variety of financial applications; to name a few: pricing complex path dependent European options, computing sensitivities, pricing American options, as well as numerically solving partially observed control and estimation problems.The pricing of American options relies on solving a backward evolution equation, termed Snell envelope in stochastic control and optimal stopping theory. The third and fourth chapters focus on the analysis of the Snell envelope and its variation to several particular cases. Different type of particle models are proposed and studied.

Page generated in 0.0617 seconds