• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 3
  • 1
  • Tagged with
  • 13
  • 13
  • 7
  • 7
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses

Barbillon, Pierre 22 November 2010 (has links) (PDF)
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
2

La dynamique structurelle et spatiale des systèmes de brevets / The Structural and Spatial Dynamics of Patent Systems

Pellier, Karine 26 November 2010 (has links)
C'est sous l'impulsion des travaux fondateurs de Schumpeter que l'innovation se positionne au coeur de l'analyse économique. Depuis ces travaux fondateurs, trop peu d'innovation studies se sont toutefois consacrées aux usages du brevet dans la longue durée. Partant de là, cette thèse a pour ambition première de fournir, outre des renseignements empiriques de bonne qualité et de nouvelles séries statistiques, une lecture renouvelée, d'inspiration cliométrique, des brevets dans leurs dimensions structurelles et spatiales. Notre premier apport est de présenter l'organisation d'une nouvelle base de données sur l'évolution de longue période des brevets dans 40 pays du XVIIe siècle à 1945 et dans plus de 150 pays de 1945 à nos jours. Nous montrons, par la suite, que des événements certes rares, mais particulièrement significatifs, ont conditionné les pulsations de l'histoire économique des brevets. Les guerres, la promulgation de lois, l'ouverture ou la fermeture d'offices, mais aussi des effets purement statistiques ont, sur le très long terme, normé, à travers le dépôt et la délivrance des séries étudiées, l'existence des systèmes de brevets. En prolongement, nous déterminons, à travers une analyse spectrale et co-spectrale, la périodicité de nos séries de brevets. Enfin, nous livrons un éclairage plus contemporain, en termes de convergence, sur les dynamiques structurelles et surtout spatiales en oeuvre dans les systèmes de brevets des pays européens. / At the behest of Schumpeter's seminal works, innovation is now positioned at the heart of economic analysis. However, since these pioneering works, not enough innovation studies have been devoted to the uses of patent over time. Starting from this assertion, the present thesis aims first and foremost at providing - in addition to good quality empirical information and new statistical series - a new interpretation of patents in their structural and spatial dimensions, based on a cliometric approach. Our first contribution is to present the organisation of a new database on the evolution over a long period of time of patents in 40 countries from the XVIIth century up to 1945 and in over 150 countries from 1945 to the present time. We show in a second step that rare but nevertheless significant events conditioned the heartbeat of the economic history of patents. Wars, the promulgation of laws, the opening or closing of offices, but also purely statistical effects standardized over the long term the existence of patent systems through the application and granting of the series under study. Furthermore we determine the periodicity of our patent series using a spectral and co-spectral analysis. Finally we propose a more contemporary insight - in terms of convergence - into structural and more specifically spatial dynamics at work in the European countries patent systems.
3

Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables / Rare event simulation using Monte Carlo in highly reliable networks

Saggadi, Samira 08 July 2013 (has links)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. / Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling.
4

Rare events simulation by shaking transformations : Non-intrusive resampler for dynamic programming / Simulation des événements rares par transformations de shaking : Rééchantillonneur non-intrusif pour la programmation dynamique

Liu, Gang 23 November 2016 (has links)
Cette thèse contient deux parties: la simulation des événements rares et le rééchantillonnage non-intrusif stratifié pour la programmation dynamique. La première partie consiste à quantifier des statistiques liées aux événements très improbables mais dont les conséquences sont sévères. Nous proposons des transformations markoviennes sur l'espace des trajectoires et nous les combinons avec les systèmes de particules en interaction et l'ergodicité de chaîne de Markov, pour proposer des méthodes performantes et applicables en grande généralité. La deuxième partie consiste à résoudre numériquement le problème de programmation dynamique dans un contexte où nous avons à disposition seulement des données historiques en faible nombre et nous ne connaissons pas les valeurs des paramètres du modèle. Nous développons et analysons un nouveau schéma composé de stratification et rééchantillonnage / This thesis contains two parts: rare events simulation and non-intrusive stratified resampler for dynamic programming. The first part consists of quantifying statistics related to events which are unlikely to happen but which have serious consequences. We propose Markovian transformation on path spaces and combine them with the theories of interacting particle system and of Markov chain ergodicity to propose methods which apply very generally and have good performance. The second part consists of resolving dynamic programming problem numerically in a context where we only have historical observations of small size and we do not know the values of model parameters. We propose and analyze a new scheme with stratification and resampling techniques.
5

Étude théorique de l'extinction de fluorescence des protéines fluorescentes : champ de forces, mécanisme moléculaire et modèle cinétique

Jonasson, Gabriella 18 July 2012 (has links) (PDF)
Les protéines fluorescentes, comme la GFP (green fluorescent protein), sont des protéines naturellement fluorescentes qui sont utilisées pour leur rôle de marqueur, permettant de localiser des protéines dans les cellules et d'en suivre les déplacements. De nombreuses études expérimentales et théoriques ont été menées ces dix dernières années sur les protéines fluorescentes. De là, se forge une compréhension essentiellement qualitative du rôle de la protéine vis-à-vis de l'obtention ou non d'une émission radiative : il apparaît que la protéine permet la fluorescence en bloquant les processus qui la désactivent ; ces processus de désactivation sont très rapides et efficaces (à l'échelle de la picoseconde) dans le cas du chromophore seul, et ils sont bien identifiés comme étant des torsions autour des liaisons intercycles (tau et phi). Dans la protéine, la sensibilité des temps de vie de fluorescence à des mutations proches ou non du chromophore, à des modifications de pH ou de température laisse supposer un contrôle de la dynamique du chromophore par différents paramètres, sans qu'ils soient pour autant identifiés et mis en relation.Une étude de la dynamique de la protéine permettrait de faire la lumière sur les mécanismes responsables de ces phénomènes photophysiques pour lesquels une analyse structurale ne suffit pas. Cependant l'étude de la dynamique est limitée par la taille du système (>30 000 atomes), par l'échelle de temps des phénomènes photophysiques considérés (dizaine de nanosecondes) et par le fait que les deux torsions tau et phi sont fortement couplées dans l'état excité du chromophore. Ces trois facteurs excluent les méthodes de dynamique existantes aujourd'hui ; dynamique quantique (AIMD), dynamique mixte classique-quantique (QM/MD) et dynamique moléculaire classique (MD).Nous avons surmonté le problème par la modélisation de la surface d'énergie potentielle de torsion du chromophore à l'état excité basée sur des calculs quantiques de haute précision, par une interpolation des valeurs obtenues par une expression analytique appropriée en fonction des angles de torsion tau et phi et avec une précision suffisante pour reproduire des barrières de l'ordre de la kcal/mol, et enfin, par l'implémentation de cette expression analytique dans le programme parallèle AMBER. Une deuxième difficulté théorique concerne la simulation et l'analyse statistique d'événements peu fréquents à l'échelle de la nanoseconde, et dont on ne connait pas le chemin de réaction, ici les déformations de la protéine et du chromophore conduisant aux géométries favorables à la conversion interne. Grâce à ces développements et aux simulations qu'ils ont permises, nous avons réalisé la première modélisation de la désactivation non-radiative par conversion interne à l'échelle de la nanoseconde dans trois protéines fluorescentes différentes. L'analyse des dynamiques moléculaires classiques nous donne une évaluation quantitative des temps de vie de l'extinction de fluorescence, en accord avec les données expérimentales. Par ailleurs elle nous a permis d'identifier les mouvements moléculaires concertés de la protéine et du chromophore conduisant à cette extinction. De ces résultats, émerge une représentation plus complète du mécanisme qui libère la torsion du chromophore ou qui la déclenche : il peut venir d'un mouvement spécifique de la protéine, qui se produit à l'échelle de la nanoseconde, ou bien de plusieurs mouvements spécifiques, plus fréquents (rupture de liaisons hydrogène, rotation de chaînes latérales, dynamique d'agrégats d'eau), mais qui coïncident seulement à l'échelle de la nanoseconde. Ces mouvements spécifiques n'ont pas un coût énergétique important mais la nécessité de leur coïncidence crée un délai de l'ordre de quelques nanosecondes alors que dans le vide la torsion se produit en quelques picosecondes. Dans le cas des protéines étudiées, on a identifié en grande partie les mécanismes et les acides aminés qui sont impliqués.
6

Contribution des basses fréquences à l'alignement sous-phrastique multilingue : une approche différentielle

Lardilleux, Adrien 14 September 2010 (has links) (PDF)
L'objectif de cette thèse est de montrer que, contrairement aux idées reçues, les mots de basses fréquences peuvent être mis à profit de façon efficace en traitement automatique des langues. Nous les mettons à contribution en alignement sous-phrastique, tâche qui constitue la première étape de la plupart des systèmes de traduction automatique fondée sur les données (traduction probabiliste ou par l'exemple). Nous montrons que les mots rares peuvent servir de fondement même dans la conception d'une méthode d'alignement sous-phrastique multilingue, à l'aide de techniques différentielles proches de celles utilisées en traduction automatique par l'exemple. Cette méthode est réellement multilingue, en ce sens qu'elle permet le traitement simultané d'un nombre quelconque de langues. Elle est de surcroît très simple, anytime, et permet un passage à l'échelle naturel. Nous comparons notre implémentation, Anymalign, à deux ténors statistiques du domaine sur des tâches bilingues. Bien qu'à l'heure actuelle ses résultats sont en moyenne légèrement en retrait par rapport à l'état de l'art en traduction automatique probabiliste par segments, nous montrons que la qualité propre des lexiques produits par notre méthode est en fait supérieure à celle de l'état de l'art.
7

Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire / Processes and risk indicators in non-life insurance mathematics and food security

Tillier, Charles 19 June 2017 (has links)
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques / Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results.
8

Étude d’un détecteur sphérique gazeux pour la recherche d’événements rares à bas seuil en énergie / Study of a spherical gaseous detector for research of rare events at low energy threshold

Dastgheibi Fard, Ali 31 October 2014 (has links)
Le détecteur proportionnel sphérique gazeux, SPC (Spherical Proportional Counter), est un nouveau concept de détecteur de particules. Ses principales caractéristiques sont : un seuil très bas en énergie indépendant du volume (faible capacité électronique), une bonne résolution en énergie, une grande robustesse et une seule voie de lecture. SEDINE, un détecteur bas bruit de fond, destiné à la recherche de matière noire légère, a été fabriqué et installé au Laboratoire Souterrain de Modane. Il est actuellement opérationnel et vise à mesurer les évènements rares à bas seuil en énergie. La sensibilité dans la détection d’événements rares étant à basse énergie directement corrélée au niveau du bruit de fond du détecteur, la diminution du seuil en énergie ainsi que celle du bruit de fond ont été la problématique principale de cette thèse. Un effort important a été consacré à la mise en opération du dispositif expérimental. Plusieurs paramètres de détection ont été optimisés : homogénéité du champ électrique dans le volume de l’enceinte, tenue aux étincelles, niveau du bruit de fond électronique et l’étanchéité du détecteur. Le détecteur a été optimisé pour assurer un fonctionnement avec un gain stable à haute pression. La modification du blindage, les nettoyages de l’enceinte du détecteur et l’ajout d’une tente anti-Radon ont permis de réduire significativement le bruit de fond de SEDINE. Les progrès accomplis ont permis d’augmenter la sensibilité du détecteur à basse énergie à une valeur comparable, pour des WIMPs à basse masse, aux autres expériences de recherche souterraines. Nous présentons donc des résultats avec un bruit de fond mesuré, dans la région du keV, qui nous permet de donner une figure d’exclusion compétitive pour la production de la matière noire légère. / The Spherical gaseous detector (or Spherical Proportional Counter, SPC) is a novel type of a particle detector, with a broad range of applications. Its main features in- clude a very low energy threshold which is independent of the volume (due to its very low capacitance), a good energy resolution, robustness and a single detection readout channel. SEDINE, a low background detector installed at the underground site of Laboratoire Souterrain de Modane is currently being operated and aims at measuring events at a very low energy threshold, around 40 eV. The sensitivity for the rare events detection at low energy is correlated to the detector background and to the decreasing the level of energy threshold, which was the main point of this thesis. A major effort has been devoted to the operating of the experimental detector. Several detection parameters were optimized: the electric field homogeneity in the sphere, keeping clear of sparks, the electronic noise level and the leak rate of the detector. The detector is optimized for operation with a high pressure stable gain. The modification of the shield, cleanings of the detector and the addition of an anti-Radon tent have significantly reduced the background of SEDINE. Progress has increased the sensitivity of the detector at low energy up to a value comparable to the results other underground research experiences for the low mass WIMPs. We will present the results with a measured background in the region of keV, which has allowed us to show a competitive figure of exclusion for the production of light dark matter.
9

Simulation d'événements rares par Monte Carlo dans les réseaux hautement fiables

Saggadi, Samira 08 July 2013 (has links) (PDF)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple, s'intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu'un groupe sélectionné de noeuds (qui peut être juste une paire) puissent communiquer, ou s'intéresser aux systèmes d'alimentation électriques où l'on veut estimer le risque que l'électricité n'est pas fournie à certains noeuds, ou encore, étudier la fiabilité des systèmes de transport, où les liens représentent les routes et sont soumis à des dommages. Dans tous ces cas, un ensemble de noeuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Les réseaux de communication moderne se caractérisent par leur grande taille, donc l'estimation via la simulation de Monte Carlo devient souvent un choix favorable. Un algorithme de Monte Carlo sous sa forme standard, échantillonne N réalisations du graphe (représentant le réseau) indépendantes, et la défiabilité est estimée à partir de la proportion des N réalisations pour lesquelles les noeuds sélectionnés ne sont pas connectés. Dans ces réseaux, les probabilités de défaillance des liens (arcs) sont généralement petites et donc les pannes d'un réseau deviennent des événements rares. Cela pose un défi majeur pour estimer la fiabilité d'un réseau. Dans cette thèse, nous présentons différentes techniques basées sur l'échantillonnage préférentiel (Importance Sampling en anglais IS), pour l'estimation de la fiabilité d'un réseau. Grace à cette technique les probabilités originales d'échantillonnage des arcs sont remplacées par de nouvelles probabilités, puis multiplier l'ancien estimateur par le quotient de vraisemblance (likelihood ratio) pour rester sans biais. On s'intéresse tout particulièrement à l'étude et au calcul de la fiabilité des réseaux hautement fiables et représentés par des graphes statiques. Dans ce cas la défiabilité est très petite, parfois de l'ordre de 10−10, ce qui rend l'approche standard de Monte Carlo inutile, car pour pouvoir estimer cette probabilité il nous faut un échantillon de taille supérieure à dix milliards. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons étudié, analysé et développé les points suivants : - En premier lieu nous avons développé une méthode basée sur l'échantillonnage préférentiel. Le processus d'échantillonnage de tous les arcs du graphe sous la nouvelle probabilité est représenté par une chaîne de Markov, telle qu'à chaque étape on détermine l'état d'un arc avec une nouvelle probabilité déterminée en fonction de l'état de tous les arcs précédemment échantillonnés. Les fonctions valeurs de la nouvelle probabilité sont approchées par les coupes minimales possédant la plus grande probabilité de défiabilité, elle est le produit des défiabilités des arcs de la coupe. Des preuves de bonnes propriétés de l'estimateur basé sur l'échantillonnage préférentiel sont faites. - Un deuxième point a été abordé et développé, consiste à appliquer des techniques de réduction série-parallèle à chaque étape de l'échantillonnage IS précédemment décrit, afin de réduire substantiellement et la variance et le temps de simulation. - Le dernier point consiste à combiner pour approximation de l'estimateur à variance nulle, l'approximation de la défiabilité par une coupe minimale qui sous-estime la défiabilité avec une autre approximation basée sur les chemins minimaux qui la sur-estime. Des algorithmes d'optimisation sont utilisés pour rechercher le facteur optimal d'ajustement des deux approximations pour minimiser la variance.
10

Particle methods in finance / Les méthodes de particule en finance

Miryusupov, Shohruh 20 December 2017 (has links)
Cette thèse contient deux sujets différents la simulation d'événements rares et un transport d'homotopie pour l'estimation du modèle de volatilité stochastique, dont chacun est couvert dans une partie distincte de cette thèse. Les méthodes de particules, qui généralisent les modèles de Markov cachés, sont largement utilisées dans différents domaines tels que le traitement du signal, la biologie, l'estimation d'événements rares, la finance, etc. Il existe un certain nombre d'approches basées sur les méthodes de Monte Carlo, tels que Markov Chain Monte Carlo (MCMC), Monte Carlo séquentiel (SMC). Nous appliquons des algorithmes SMC pour estimer les probabilités de défaut dans un processus d'intensité basé sur un processus stable afin de calculer un ajustement de valeur de crédit (CV A) avec le wrong way risk (WWR). Nous proposons une nouvelle approche pour estimer les événements rares, basée sur la génération de chaînes de Markov en simulant le système hamiltonien. Nous démontrons les propriétés, ce qui nous permet d'avoir une chaîne de Markov ergodique et nous montrons la performance de notre approche sur l'exemple que nous rencontrons dans la valorisation des options. Dans la deuxième partie, nous visons à estimer numériquement un modèle de volatilité stochastique, et à le considérer dans le contexte d'un problème de transport, lorsque nous aimerions trouver «un plan de transport optimal» qui représente la mesure d'image. Dans un contexte de filtrage, nous le comprenons comme le transport de particules d'une distribution antérieure à une distribution postérieure dans le pseudo-temps. Nous avons également proposé de repondérer les particules transportées, de manière à ce que nous puissions nous diriger vers la zone où se concentrent les particules de poids élevé. Nous avons montré sur l'exemple du modèle de la volatilité stochastique de Stein-Stein l'application de notre méthode et illustré le biais et la variance. / The thesis introduces simulation techniques that are based on particle methods and it consists of two parts, namely rare event simulation and a homotopy transport for stochastic volatility model estimation. Particle methods, that generalize hidden Markov models, are widely used in different fields such as signal processing, biology, rare events estimation, finance, etc. There are a number of approaches that are based on Monte Carlo methods that allow to approximate a target density such as Markov Chain Monte Carlo (MCMC), sequential Monte Carlo (SMC). We apply SMC algorithms to estimate default probabilities in a stable process based intensity process to compute a credit value adjustment (CV A) with a wrong way risk (WWR). We propose a novel approach to estimate rare events, which is based on the generation of Markov Chains by simulating the Hamiltonian system. We demonstrate the properties, that allows us to have ergodic Markov Chain and show the performance of our approach on the example that we encounter in option pricing.In the second part, we aim at numerically estimating a stochastic volatility model, and consider it in the context of a transportation problem, when we would like to find "an optimal transport map" that pushes forward the measure. In a filtering context, we understand it as the transportation of particles from a prior to a posterior distribution in pseudotime. We also proposed to reweight transported particles, so as we can direct to the area, where particles with high weights are concentrated. We showed the application of our method on the example of option pricing with Stein­Stein stochastic volatility model and illustrated the bias and variance.

Page generated in 0.0743 seconds