• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 8
  • 7
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation du risque de défaut en entreprise

Dorobantu, Diana 14 December 2007 (has links) (PDF)
Dans une première partie, on étudie quelques problèmes d'arrêt optimal de la forme <br /> <br /> $sup_{\tau\in \Delta, \tau\geq 0} \esp_v\left[g(V_{\tau})\right] \hbox{~ou}~<br /> sup_{\tau\in \Delta, \tau\geq 0} \esp_v\left[e^{-r\tau}\bar{g}(V_{\tau})\right],$<br /> où $V$ est un processus stochastique, $g$ et $\bar{g}$ deux fonctions boréliennes, $r>0$ et $\Delta$ est l'ensemble des $\F^V$-temps d'arrêt ($\F_.^V$ étant la filtration engendrée par le processus $V$). <br /> L'étude de ces problèmes est motivée par les applications dans plusieurs domaines comme la finance, l'économie ou la médecine.<br /> <br />La première partie est une mise en évidence du fait que le plus petit temps d'arrêt optimal est parfois un temps d'atteinte. C'est pourquoi, dans la deuxième partie de la thèse, on s'intéresse à la loi d'un temps d'atteinte d'un processus de Lévy à sauts ainsi qu'à quelques applications à la finance, plus précisément lors du calcul de l'intensité de ce temps d'arrêt associée à une certaine filtration $\F$. Deux cas sont présentés : quand le temps d'arrêt est un $\F$-temps d'arrêt et quand il ne l'est pas.
2

Convergence abrupte et métastabilité

Bertoncini, Olivier 29 November 2007 (has links) (PDF)
Le but de cette thèse est de relier deux phénomènes relatifs au comportement asymptotique des processus stochastiques, qui jusqu'à présent étaient restés dissociés. La convergence abrupte ou phénomène de cutoff d'une part, et la métastabilité d'autre part. Dans le cas du cutoff, une convergence abrupte vers la mesure d'équilibre du processus a lieu à un instant que l'on peut déterminer, alors que la métastabilité est liée à une grande incertitude sur l'instant où l'on va sortir d'un certain équilibre. On propose un cadre commun pour étudier et comparer les deux phénomènes : celui des chaînes de naissance et de mort à temps discret sur $\mathbb{N}$, avec une dérive vers zéro.<br />On montre que sous l'hypothèse de dérive il y a convergence abrupte vers zéro et métastabilité dans l'autre sens. De plus la dernière excursion dans la métastabilité est la renversée temporelle d'une trajectoire typique de cutoff.<br />On étend notre approche au modèle d'Ehrenfest, ce qui nous permet de montrer la convergence abrupte et la métastabilité sous une hypothèse de dérive plus faible.
3

Modélisation stochastique et estimation de la dispersion du pollen de maïs.<br />Estimation dans des modèles à volatilité stochastique.

Grimaud, Agnès 05 December 2005 (has links) (PDF)
La première partie de cette thèse est consacrée à l'étude de la dispersion du pollen de maïs. Le grain de pollen est vu comme une particule soumise à un champ de forces et sa trajectoire est modélisée à l'aide de différents processus de diffusion. Lorsque deux champs sont contigüs (milieu homogène), différentes fonctions de dispersion individuelles paramétriques sont alors obtenues, différentes hypothèses étant faites sur des temps d'atteinte de processus stochastiques. A partir d'expériences, les paramètres sont alors estimés en considérant un modèle de régression non linéaire. Le choix du modèle le mieux adapté se fait à l'aide d'un critère de type Akaïke et de méthodes graphiques. Par ailleurs ces modèles permettent d'effectuer des prédictions. Les résultats sont alors appliqués lorsque deux champs sont séparés par une autre culture (milieu hétérogène), afin d'étudier l'effet d'une discontinuité sur la dispersion. <br />Dans la seconde partie, on s'intéresse à des modèles à volatilité stochastique «mean-reverting», souvent utilisés en économie. Le processus observé est fonction d'une diffusion non observable dont on souhaite estimer les paramètres. Une méthode d'estimation à deux pas basée sur la structure ARMA(1,1) du processus est proposée, en utilisant un estimateur de moments et un contraste de Whittle. Des simulations sont réalisées afin de comparer cette méthode avec d'autres méthodes existantes. Ensuite un paramètre dit «leverage» est ajouté et un modèle discrétisé est étudié. Un critère auxiliaire est proposé pour estimer les paramètres à l'aide d'une méthode d'inférence indirecte. Enfin des simulations sont réalisées pour évaluer leurs performances.
4

Détection de la convergence de processus de Markov

Lachaud, Béatrice 14 September 2005 (has links) (PDF)
Notre travail porte sur le phénomène de cutoff pour des n-échantillons de processus de Markov, dans le but de l'appliquer à la détection de la convergence d'algorithmes parallélisés. Dans un premier temps, le processus échantillonné est un processus d'Ornstein-Uhlenbeck. Nous mettons en évidence le phénomène de cutoff pour le n-échantillon, puis nous faisons le lien avec la convergence en loi du temps d'atteinte par le processus moyen d'un niveau fixé. Dans un second temps, nous traitons le cas général où le processus échantillonné converge à vitesse exponentielle vers sa loi stationnaire. Nous donnons des estimations précises des distances entre la loi du n-échantillon et sa loi stationnaire. Enfin, nous expliquons comment aborder les problèmes de temps d'atteinte liés au phénomène du cutoff.
5

Résultats asymptotiques pour des grands systèmes réparables monotones

Paroissin, Christian 06 December 2002 (has links) (PDF)
Nous présentons des résultats asymptotiques pour des systèmes monotones réparables, lorsque le nombre de composants est grand. On supposera que les composants sont indépendants, identiques, multi-états et markoviens. Les systèmes k-sur-n généralisés, pour lesquels le niveau k dépend de nombre n de composants, seront les principaux modèles étudiés. Nous montrerons un théorème central limite et une loi des grands nombres pour le premier instant de panne correspondant à un certain niveau k. Nous montrons également une loi du zéro-un pour la disponibilité d'une grande classe de systèmes.
6

Robustesse et émergence dans les systèmes complexes : le modèle des automates cellulaires

Rouquier, Jean-Baptiste 08 December 2008 (has links) (PDF)
L'objet de ce travail est de mieux comprendre ce qui se produit lorsque l'on perturbe un système complexe, en utilisant les automates cellulaires comme modèle. Nous nous intéressons principalement à deux perturbations. La première concerne l'écoulement du temps : contrairement au modèle habituel, nous utilisons des mises à jour asynchrones, c'est-à-dire que, à chaque étape, seulement une partie des cellules sont mises à jour. L'autre perturbation concerne la topologie, c'est-à-dire le graphe d'interaction entre les cellules.<br>Une première partie étudie expérimentalement l'apparition de la percolation dirigée dans les automates cellulaires, notamment dans le cadre du "damage spreading". Le dernier chapitre de cette partie prouve une équivalence entre une classe d'automates cellulaires probabilistes et les automates cellulaires asynchrones.<br>La seconde partie étudie dans un premier chapitre l'interaction des deux perturbations évoquées: asynchronisme et topologie. Alors que le modèle habituel utilise une grille Zd, nous étudions une grille où certains liens sont temporairement coupés. Puis un second chapitre démontre des propriétés théoriques sur la règles minorité lorsque la topologie est un arbre.<br>Nous avons dans cette thèse mené à la fois des études expérimentales et des études théoriques. Une préoccupation transversale est la simulation formelle entre modèles. L'enjeu de ces travaux est, à terme, de savoir comment obtenir des systèmes ayant un comportement global prédéfini, ou bien comment rendre robuste à certaines perturbations un système complexe donné.
7

Modélisation probabiliste en biologie moléculaire et cellulaire

Yvinec, Romain 05 October 2012 (has links) (PDF)
De nombreux travaux récents ont démontré l'importance de la stochasticité dans l'expression des gènes à différentes échelles. On passera tout d'abord en revue les principaux résultats expérimentaux pour motiver l'étude de modèles mathématiques prenant en compte des effets aléatoires. On étudiera ensuite deux modèles particuliers où les effets aléatoires induisent des comportements intéressants, en lien avec des résultats expérimentaux: une dynamique intermittente dans un modèle d'auto-régulation de l'expression d'un gène; et l'émergence d'hétérogénéité à partir d'une population homogène de protéines par modification post-traductionnelle.\\ Dans le Chapitre I, nous avons étudié le modèle standard d'expression des gènes à trois variables: ADN, ARN messager et protéine. L'ADN peut être dans deux états, respectivement ''ON'' et ''OFF''. La transcription (production d'ARN messagers) peut avoir lieu uniquement dans l'état ''ON''. La traduction (production de protéines) est proportionnelle à la quantité d'ARN messager. Enfin la quantité de protéines peut réguler de manière non-linéaire les taux de production précédent. Nous avons utilisé des théorèmes de convergence de processus stochastique pour mettre en évidence différents régimes de ce modèle. Nous avons ainsi prouvé rigoureusement le phénomène de production intermittente d'ARN messagers et/ou de protéines. Les modèles limites obtenues sont alors des modèles hybrides, déterministes par morceaux avec sauts Markoviens. Nous avons étudié le comportement en temps long de ces modèles et prouvé la convergence vers des solutions stationnaires. Enfin, nous avons étudié en détail un modèle réduit, calculé explicitement la solution stationnaire, et étudié le diagramme de bifurcation des densités stationnaires. Ceci a permis 1) de mettre en évidence l'influence de la stochasticité en comparant aux modèles déterministes; 2) de donner en retour un moyen théorique d'estimer la fonction de régulation par un problème inverse. \\ Dans le Chapitre II, nous avons étudié une version probabiliste du modèle d'agrégation-fragmentation. Cette version permet une définition de la nucléation en accord avec les modèles biologistes pour les maladies à Prion. Pour étudier la nucléation, nous avons utilisé une version stochastique du modèle de Becker-Döring. Dans ce modèle, l'agrégation est réversible et se fait uniquement par attachement/détachement d'un monomère. Le temps de nucléation est définit comme le premier temps où un noyau (c'est-à-dire un agrégat de taille fixé, cette taille est un paramètre du modèle) est formé. Nous avons alors caractérisé la loi du temps de nucléation dans ce modèle. La distribution de probabilité du temps de nucléation peut prendre différente forme selon les valeurs de paramètres: exponentielle, bimodale, ou de type Weibull. Concernant le temps moyen de nucléation, nous avons mis en évidence deux phénomènes importants. D'une part, le temps moyen de nucléation est une fonction non-monotone du paramètre cinétique d'agrégation. D'autre part, selon la valeur des autres paramètres, le temps moyen de nucléation peut dépendre fortement ou très faiblement de la quantité initiale de monomère . Ces caractérisations sont importantes pour 1) expliquer des dépendances très faible en les conditions initiales, observées expérimentalement; 2) déduire la valeur de certains paramètres d'observations expérimentales. Cette étude peut donc être appliqué à des données biologiques. Enfin, concernant un modèle de polymérisation-fragmentation, nous avons montré un théorème limite d'un modèle purement discret vers un modèle hybride, qui peut-être plus utile pour des simulations numériques, ainsi que pour une étude théorique.
8

Développement stochastique pour les processus de diffusion et applications à la valorisation d'options

Bompis, Romain 11 December 2013 (has links) (PDF)
Cette thèse est consacrée à l'approximation de l'espérance d'une fonctionnelle (pouvant dépendre de toute la trajectoire) appliquée à un processus de diffusion (pouvant être multidimensionnel). La motivation de ce travail vient des mathématiques financières où la valorisation d'options se réduit au calcul de telles espérances. La rapidité des calculs de prix et des procédures de calibration est une contrainte opérationnelle très forte et nous apportons des outils temps-réel (ou du moins plus compétitifs que les simulations de Monte Carlo dans le cas multidimensionnel) afin de combler ces besoins. Pour obtenir des formules d'approximation, on choisit un modèle proxy dans lequel les calculs analytiques sont possibles, puis nous utilisons des développements stochastiques autour de ce modèle proxy et le calcul de Malliavin afin d'approcher les quantités d'intérêt. Dans le cas où le calcul de Malliavin ne peut pas être appliqué, nous développons une méthodologie alternative combinant calcul d'Itô et arguments d'EDP. Toutes les approches (allant des EDPs à l'analyse stochastique) permettent d'obtenir des formules explicites et des estimations d'erreur précises en fonction des paramètres du modèle. Bien que le résultat final soit souvent le même, la dérivation explicite du développement peut être très différente et nous comparons les approches, tant du point de vue de la manière dont les termes correctifs sont rendus explicites que des hypothèses requises pour obtenir les estimées d'erreur. Nous considérons différentes classes de modèles et fonctionnelles lors des quatre Parties de la thèse. Dans la Partie I, nous nous concentrons sur les modèles à volatilité locale et nous obtenons des nouvelles formules d'approximation pour les prix, les sensibilités (delta) et les volatilités implicites des produits vanilles surpassant en précision les formules connues jusque-là. Nous présentons aussi des nouveaux résultats concernant la valorisation des options à départ différé. La Partie II traite de l'approximation analytique des prix vanilles dans les modèles combinant volatilité locale et stochastique (type Heston). Ce modèle est très délicat à analyser car ses moments ne sont pas tous finis et qu'il n'est pas régulier au sens de Malliavin. L'analyse d'erreur est originale et l'idée est de travailler sur une régularisation appropriée du payoff et sur un modèle habilement modifié, régulier au sens de Malliavin et à partir duquel on peut contrôler la distance par rapport au modèle initial. La Partie III porte sur la valorisation des options barrières régulières dans le cadre des modèles à volatilité locale. C'est un cas non considéré dans la littérature, difficile à cause de l'indicatrice des temps de sorties. Nous mélangeons calcul d'Itô, arguments d'EDP, propriétés de martingales et de convolutions temporelles de densités afin de décomposer l'erreur d'approximation et d'expliciter les termes correctifs. Nous obtenons des formules d'approximation explicites et très précises sous une hypothèse martingale. La Partie IV présente une nouvelle méthodologie (dénotée SAFE) pour l'approximation en loi efficace des diffusions multidimensionnelles dans un cadre assez général. Nous combinons l'utilisation d'un proxy Gaussien pour approcher la loi de la diffusion multidimensionnelle et une interpolation locale de la fonction terminale par éléments finis. Nous donnons une estimation de la complexité de notre méthodologie. Nous montrons une efficacité améliorée par rapport aux simulations de Monte Carlo dans les dimensions petites et moyennes (jusqu'à 10).
9

Processus d'Ornstein-Uhlenbeck et son supremum : quelques résultats théoriques et application au risque climatique / Ornstein-Uhlenbeck process and its supremum : theorical results and application to the climatic risk

Gay, Laura 23 September 2019 (has links)
Prévoir et estimer le risque de canicule est un enjeu politique majeur. Évaluer la probabilité d'apparition des canicules et leurs sévérités serait possible en connaissant la température en temps continu. Cependant, les extrêmes journaliers (maxima et minima) sont parfois les seules données disponibles. Pour modéliser la dynamique des températures, il est courant d'utiliser un processus d'Ornstein-Uhlenbeck. Une estimation des paramètres de ce processus n'utilisant que les suprema journaliers observés est proposée. Cette nouvelle approche se base sur une minimisation des moindres carrés faisant intervenir la fonction de répartition du supremum. Les mesures de risque liées aux canicules sont ensuite obtenues numériquement. Pour exprimer explicitement ces mesures de risque, il peut être utile d'avoir la loi jointe du processus d'Ornstein-Uhlenbeck et de son supremum. L'étude se limite tout d'abord à la fonction de répartition / densité jointe du point final du processus et de son supremum. Cette probabilité admet une densité, solution de l'équation de Fokker-Planck, obtenue explicitement et utilisant les fonctions spéciales paraboliques cylindriques. La preuve de l'expression de la densité repose sur une décomposition sur une base hilbertienne de l'espace via une méthode spectrale. On étudie également le processus d'Ornstein-Uhlenbeck oscillant, dont le paramètre de drift est constant par morceaux selon le signe du processus. La transformée de Laplace du temps d'atteinte de ce processus est déterminée et la probabilité que le processus soit positif en un temps donné est calculée. / Forecasting and assessing the risk of heat waves is a crucial public policy stake. Evaluate the probability of heat waves and their severity can be possible by knowing the temperature in continuous time. However, daily extremes (maxima and minima) might be the only available data. The Ornstein-Uhlenbeck process is commonly used to model temperature dynamic. An estimation of the process parameters using only daily observed suprema of temperatures is proposed here. This new approach is based on a least square minimization using the cumulative distribution function of the supremum. Risk measures related to heat waves are then obtained numerically. In order to calculate explicitly those risk measures, it can be useful to have the joint law of the Ornstein-Uhlenbeck process and its supremum. The study is _rst limited to the joint density / distribution of the endpoint and supremum of the Ornstein-Uhlenbeck process. This probability admits a density, solution of the Fokker-Planck equation and explicitly obtained as an expansion involving parabolic cylinder functions. The proof of the density expression relies on a decomposition on a Hilbert basis of the space via a spectral method. We also study the oscillating Ornstein-Uhlenbeck process, which drift parameter is piecewise constant depending on the sign of the process. The Laplace transform of this process hitting time is determined and we also calculate the probability for the process to be positive on a fixed time.

Page generated in 0.0979 seconds