• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 32
  • 8
  • Tagged with
  • 94
  • 94
  • 33
  • 24
  • 21
  • 20
  • 18
  • 17
  • 17
  • 16
  • 15
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contribution à l'estimation et au contrôle de processus stochastiques

de Saporta, Benoîte 03 July 2013 (has links) (PDF)
Depuis septembre 2006, je suis maître de conférences à l'université Montesquieu Bordeaux IV en mathématiques appliquées. Je suis membre du GREThA (groupement de recherche en économie théorique et appliquée), de l'IMB (Institut de Mathématiques de Bordeaux, équipe probabilités et statistique) et de l'équipe Inria CQFD (contrôle de qualité et fiabilité dynamique). Depuis mon arrivée à Bordeaux, mes travaux de recherche se poursuivent dans deux directions principales : l'une concerne les processus auto-régressifs de bifurcation sur des arbres binaires et l'autre le développement d'outils numériques pour le contrôle des processus markoviens déterministes par morceaux. Il s'agit de processus en temps continu qui changent de régime de façon markovienne au cours du temps. Ce mémoire présente uniquement mes travaux réalisés à Bordeaux depuis 2006.
22

Dynamique de diffusions inhomogènes sous des conditions d'invariance d'échelle

Offret, Yoann 25 June 2012 (has links) (PDF)
Nous étudions le comportement en temps long de certains processus stochastiques dont la dynamique dépend non seulement de la position, mais aussi du temps, et dont le terme de diffusion et le potentiel satisfont des conditions d'invariance d'échelle. Nous mettons en lumière un phénomène de transition de phase générale, entièrement déterminé par les différents indices d'auto-similarité en jeu. La principale idée mise en exergue est de considérer une transformation d'échelle adéquate, tirant pleinement parti des nombreuses invariances de notre problème.Dans une première partie, nous étudions une famille de processus de diffusion unidimensionnels, dirigés par un mouvement brownien, dont la dérive est polynomiale en temps et en espace. Ces diffusions généralisent les marches aléatoires, en lien avec le modèle d'urne de Friedman, étudiées par Menshikov et Volkov (2008). Nous donnons, de manière exhaustive, les lois du type logarithme itéré, les limites d'échelle ainsi que les temps de survie de ces processus. La seconde partie est, quant à elle, consacrée à l'étude d'une famille de processus de diffusion en environnement aléatoire, dirigés par un mouvement brownien unidimensionnel, dont le potentiel est brownien en espace et polynomial en temps. Ces diffusions sont une extensiondu modèle amplement étudié de Brox (86) et, en un sens randomisé, du modèle précédent. La différence notable avec le modèle déterministe est que nous obtenons, dans le cas critique, une mesure aléatoire quasi-invariante et quasi-stationnaire pour le semi-groupe, déduite de l'étude d'un système dynamique aléatoire sous-jacent.
23

Options américaines dans les modèles exponentiels de Lévy

Mikou, Mohammed 02 December 2009 (has links) (PDF)
L'objet de cette thèse est l'étude de l'option américaine dans un modèle exponentiel de Lévy général. Dans le premier chapitre nous étudions la continuité des réduites dans le cadre des processus de Markov de Feller. Ensuite, nous introduisons les processus de Lévy multidimensionnels et nous montrons la continuité des réduites associées à ceux-ci. Dans le deuxième chapitre, nous clarifions les propriétés basiques de la frontière libre du put américain dans un modèle exponentiel de Lévy général avec dividendes. Nous commençons par caractériser le prix de l'option américaine comme l'unique solution d'une inéquation variationnelle au sens des distributions. Ce qui nous permettra de montrer la continuité de la frontière libre et de donner une caractérisation explicite de la limite du prix critique près de l'échéance. Dans le troisième chapitre, nous étudions la continuité de la dérivée de la fonction valeur du put américain à horizon fini et du put perpétuel. Nous donnons des conditions nécessaires et d'autres suffisantes pour la vérification du principe de smooth-fit. Dans le quatrième chapitre, nous étudions la vitesse de convergence du prix critique vers sa limite à l'échéance dans le cadre d'un modèle exponentiel de Lévy, dans le cas de diffusion avec sauts, puis dans le cas d'un processus de Lévy sans partie Brownienne. Après, nous donnons cette vitesse dans le cas où le terme de diffusion est absent. Enfin, dans le dernier chapitre, nous introduisons deux méthodes numériques pour le calcul des prix des options américaines : la méthode de l'arbre multinomial et celle des différences finies. Nous comparons les deux approches et nous améliorons la convergence de la première dans certains modèles exponentiels de Lévy
24

Techniques for the allocation of resources under uncertainty

Plamondon, Pierrick. January 1900 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2007. / Titre de l'écran-titre (visionné le 5 mai 2008). Bibliogr.
25

Algorithmes stochastiques d'optimisation sous incertitude sur des structures complexes : convergence et applications / Stochastic algorithms for optimization under uncertainty on complex structures : convergence and applications

Gavra, Iona Alexandra 05 October 2017 (has links)
Les principaux sujets étudiés dans cette thèse concernent le développement d'algorithmes stochastiques d'optimisation sous incertitude, l'étude de leurs propriétés théoriques et leurs applications. Les algorithmes proposés sont des variantes du recuit simulé qui n'utilisent que des estimations sans biais de la fonction de coût. On étudie leur convergence en utilisant des outils développés dans la théorie des processus de Markov : on utilise les propriétés du générateur infinitésimal et des inégalités fonctionnelles pour mesurer la distance entre leur distribution et une distribution cible. La première partie est dédiée aux graphes quantiques, munis d'une mesure de probabilité sur l'ensemble des sommets. Les graphes quantiques sont des versions continues de graphes pondérés non-orientés. Le point de départ de cette thèse a été de trouver la moyenne de Fréchet de tels graphes. La moyenne de Fréchet est une extension aux espaces métriques de la moyenne euclidienne et est définie comme étant le point qui minimise la somme des carrés des distances pondérées à tous les sommets. Notre méthode est basée sur une formulation de Langevin d'un recuit simulé bruité et utilise une technique d'homogénéisation. Dans le but d'établir la convergence en probabilité du processus, on étudie l'évolution de l'entropie relative de sa loi par rapport a une mesure de Gibbs bien choisie. En utilisant des inégalités fonctionnelles (Poincaré et Sobolev) et le lemme de Gronwall, on montre ensuite que l'entropie relative tend vers zéro. Notre méthode est testée sur des données réelles et nous proposons une méthode heuristique pour adapter l'algorithme à de très grands graphes, en utilisant un clustering préliminaire. Dans le même cadre, on introduit une définition d'analyse en composantes principales pour un graphe quantique. Ceci implique, une fois de plus, un problème d'optimisation stochastique, cette fois-ci sur l'espace des géodésiques du graphe. Nous présentons un algorithme pour trouver la première composante principale et conjecturons la convergence du processus de Markov associé vers l'ensemble voulu. Dans une deuxième partie, on propose une version modifiée de l'algorithme du recuit simulé pour résoudre un problème d'optimisation stochastique global sur un espace d'états fini. Notre approche est inspirée du domaine général des méthodes Monte-Carlo et repose sur une chaine de Markov dont la probabilité de transition à chaque étape est définie à l'aide de " mini-lots " de taille croissante (aléatoire). On montre la convergence en probabilité de l'algorithme vers l'ensemble optimal, on donne la vitesse de convergence et un choix de paramètres optimisés pour assurer un nombre minimal d'évaluations pour une précision donnée et un intervalle de confiance proche de 1. Ce travail est complété par un ensemble de simulations numériques qui illustrent la performance pratique de notre algorithme à la fois sur des fonctions tests et sur des données réelles issues de cas concrets. / The main topics of this thesis involve the development of stochastic algorithms for optimization under uncertainty, the study of their theoretical properties and applications. The proposed algorithms are modified versions of simulated an- nealing that use only unbiased estimators of the cost function. We study their convergence using the tools developed in the theory of Markov processes: we use properties of infinitesimal generators and functional inequalities to measure the distance between their probability law and a target one. The first part is concerned with quantum graphs endowed with a probability measure on their vertex set. Quantum graphs are continuous versions of undirected weighted graphs. The starting point of the present work was the question of finding Fréchet means on such a graph. The Fréchet mean is an extension of the Euclidean mean to general metric spaces and is defined as an element that minimizes the sum of weighted square distances to all vertices. Our method relies on a Langevin formulation of a noisy simulated annealing dealt with using homogenization. In order to establish the convergence in probability of the process, we study the evolution of the relative entropy of its law with respect to a convenient Gibbs measure. Using functional inequalities (Poincare and Sobolev) and Gronwall's Lemma, we then show that the relative entropy goes to zero. We test our method on some real data sets and propose an heuristic method to adapt the algorithm to huge graphs, using a preliminary clustering. In the same framework, we introduce a definition of principal component analysis for quantum graphs. This implies, once more, a stochastic optimization problem, this time on the space of the graph's geodesics. We suggest an algorithm for finding the first principal component and conjecture the convergence of the associated Markov process to the wanted set. On the second part, we propose a modified version of the simulated annealing algorithm for solving a stochastic global optimization problem on a finite space. Our approach is inspired by the general field of Monte Carlo methods and relies on a Markov chain whose probability transition at each step is defined with the help of mini batches of increasing (random) size. We prove the algorithm's convergence in probability towards the optimal set, provide convergence rate and its optimized parametrization to ensure a minimal number of evaluations for a given accuracy and a confidence level close to 1. This work is completed with a set of numerical experiments and the assessment of the practical performance both on benchmark test cases and on real world examples.
26

Perishable items Inventory Mnagement and the Use of Time Temperature Integrators Technology / La gestion des stocks de produits périssables et l’utilisation des intégrateurs temps - température

Kouki, Chaaben 22 December 2010 (has links)
L’une des hypothèses implicites faites dans la recherche liée à la gestion des stocks est de maintenir les produits indéfiniment pour satisfaire la demande future. Toutefois, cette hypothèse n’est pas vraie pour les produits caractérisés par une durée de vie limitée. L’impact économique de la gestion de tels produits a conduit à d’importants travaux de recherche. Les investigations développées jusqu’ici ont souligné la complexité de modéliser les stocks de produits périssables. En plus, la dépendance de la durée de la vie à la température à laquelle les produits sont maintenus crée un challenge majeur en termes de modélisation puisque la durée de vie des produits provenant d’une même commande peut varier d’un produit à un autre. La capacité des nouvelles technologies de contrôle de fraîcheur telles que les intégrateurs temps - température de capturer les effets des variations de la température sur la durée de vie offre une opportunité de réduire les pertes et donc d’assurer la fraîcheur des produits vendus. L’objectif général de cette thèse est de modéliser des politiques de gestion de stock des produits périssables. En premier lieu, nous nous intéressons `a la politique (r;Q) o`u les produits ont une durée de vie constante. Le modèle que nous proposons relaxe certaines hypothèses formulées dans les précédents travaux. La deuxième politique considérée est la politique (T; S) où les produits ont une durée de vie aléatoire. Enfin, nous étudions l’impact des nouvelles technologies de contrôle de fraîcheur des produits périssables sur la gestion des stocks. Nous nous intéressons à la pertinence économique découlant du déploiement des intégrateurs temps températures dans la gestion des stocks. / One of the implicit assumptions made in research related to inventory control is to keep products indefinitely in inventory to meet future demand. However, such an assumption is not true for a large wide of products characterized by a limited lifetime. The economic impact of managing such products led to substantial work in perishable inventory control literature. Investigations developed so far underline the complexity of modeling perishable inventory. Moreover, the dependency of the lifetime to temperature conditions in which products are handled adds more complexity since the lifetime of products stemming from the same order may vary from product to another. In this context, the ability of Time Temperature Integrators to capture the effects of temperature variations on products’ lifetime, offers an opportunity to reduce spoilage and therefore ensure product’s freshness and safety. The general aim of this thesis is to model perishable inventory systems. Particularly, three different problem areas are considered. The first one concerns perishable inventory with fixed lifetime, often referred as Fixed Life Perishability Problem, where an approximate (r;Q) inventory policy is developed. This model relaxes some assumptions made in previous related works. The second problem considered is a (T; S) perishable inventory system with random lifetime. Results of this model contribute to the development of a theoretical background for perishable inventory systems which are based on Markov renewal process approach. The third area incorporates the impact of temperature variations on products’ lifetime throughout inventory systems that use TTIs technology. More general settings regarding the demand and the lifetime distributions are considered throughout simulation analysis. The economic relevance stemming from the deployment of this technology is therefore quantified.
27

Étude quantitative de processus de Markov déterministes par morceaux issus de la modélisation / Quantitative study of piecewise deterministic Markov processes arising in modelization

Bouguet, Florian 29 June 2016 (has links)
L'objet de cette thèse est d'étudier une certaine classe de processus de Markov, dits déterministes par morceaux, ayant de très nombreuses applications en modélisation. Plus précisément, nous nous intéresserons à leur comportement en temps long et à leur vitesse de convergence à l'équilibre lorsqu'ils admettent une mesure de probabilité stationnaire. L'un des axes principaux de ce manuscrit de thèse est l'obtention de bornes quantitatives fines sur cette vitesse, obtenues principalement à l'aide de méthodes de couplage. Le lien sera régulièrement fait avec d'autres domaines des mathématiques dans lesquels l'étude de ces processus est utile, comme les équations aux dérivées partielles. Le dernier chapitre de cette thèse est consacré à l'introduction d'une approche unifiée fournissant des théorèmes limites fonctionnels pour étudier le comportement en temps long de chaînes de Markov inhomogènes, à l'aide de la notion de pseudo-trajectoire asymptotique. / The purpose of this Ph.D. thesis is the study of piecewise deterministic Markov processes, which are often used for modeling many natural phenomena. Precisely, we shall focus on their long time behavior as well as their speed of convergence to equilibrium, whenever they possess a stationary probability measure. Providing sharp quantitative bounds for this speed of convergence is one of the main orientations of this manuscript, which will usually be done through coupling methods. We shall emphasize the link between Markov processes and mathematical fields of research where they may be of interest, such as partial differential equations. The last chapter of this thesis is devoted to the introduction of a unified approach to study the long time behavior of inhomogeneous Markov chains, which can provide functional limit theorems with the help of asymptotic pseudotrajectories.
28

Options américaines dans les modèles exponentiels de Lévy / American Option in the Exponential Lévy Model

Mikou, Mohammed 02 December 2009 (has links)
L'objet de cette thèse est l'étude de l'option américaine dans un modèle exponentiel de Lévy général. Dans le premier chapitre nous étudions la continuité des réduites dans le cadre des processus de Markov de Feller. Ensuite, nous introduisons les processus de Lévy multidimensionnels et nous montrons la continuité des réduites associées à ceux-ci. Dans le deuxième chapitre, nous clarifions les propriétés basiques de la frontière libre du put américain dans un modèle exponentiel de Lévy général avec dividendes. Nous commençons par caractériser le prix de l'option américaine comme l'unique solution d'une inéquation variationnelle au sens des distributions. Ce qui nous permettra de montrer la continuité de la frontière libre et de donner une caractérisation explicite de la limite du prix critique près de l'échéance. Dans le troisième chapitre, nous étudions la continuité de la dérivée de la fonction valeur du put américain à horizon fini et du put perpétuel. Nous donnons des conditions nécessaires et d'autres suffisantes pour la vérification du principe de smooth-fit. Dans le quatrième chapitre, nous étudions la vitesse de convergence du prix critique vers sa limite à l'échéance dans le cadre d'un modèle exponentiel de Lévy, dans le cas de diffusion avec sauts, puis dans le cas d'un processus de Lévy sans partie Brownienne. Après, nous donnons cette vitesse dans le cas où le terme de diffusion est absent. Enfin, dans le dernier chapitre, nous introduisons deux méthodes numériques pour le calcul des prix des options américaines : la méthode de l'arbre multinomial et celle des différences finies. Nous comparons les deux approches et nous améliorons la convergence de la première dans certains modèles exponentiels de Lévy / Pas de résumé en anglais
29

Branching processes for structured populations and estimators for cell division / Processus de branchement pour des populations structurées et estimateurs pour la division cellulaire

Marguet, Aline 27 November 2017 (has links)
Cette thèse porte sur l'étude probabiliste et statistique de populations sans interactions structurées par un trait. Elle est motivée par la compréhension des mécanismes de division et de vieillissement cellulaire. On modélise la dynamique de ces populations à l'aide d'un processus de Markov branchant à valeurs mesures. Chaque individu dans la population est caractérisé par un trait (l'âge, la taille, etc...) dont la dynamique au cours du temps suit un processus de Markov. Ce trait détermine le cycle de vie de chaque individu : sa durée de vie, son nombre de descendants et le trait à la naissance de ses descendants. Dans un premier temps, on s'intéresse à la question de l'échantillonnage uniforme dans la population. Nous décrivons le processus pénalisé, appelé processus auxiliaire, qui correspond au trait d'un individu "typique" dans la population en donnant son générateur infinitésimal. Dans un second temps, nous nous intéressons au comportement asymptotique de la mesure empirique associée au processus de branchement. Sous des hypothèses assurant l'ergodicité du processus auxiliaire, nous montrons que le processus auxiliaire correspond asymptotiquement au trait le long de sa lignée ancestrale d'un individu échantillonné uniformément dans la population. Enfin, à partir de données composées des traits à la naissance des individus dans l'arbre jusqu'à une génération donnée, nous proposons des estimateurs à noyau de la densité de transition de la chaine correspondant au trait le long d'une lignée ainsi que de sa mesure invariante. De plus, dans le cas d'une diffusion réfléchie sur un compact, nous estimons par maximum de vraisemblance le taux de division du processus. Nous montrons la consistance de cet estimateur ainsi que sa normalité asymptotique. L'implémentation numérique de l'estimateur est par ailleurs réalisée. / We study structured populations without interactions from a probabilistic and a statistical point of view. The underlying motivation of this work is the understanding of cell division mechanisms and of cell aging. We use the formalism of branching measure-valued Markov processes. In our model, each individual is characterized by a trait (age, size, etc...) which moves according to a Markov process. The rate of division of each individual is a function of its trait and when a branching event occurs, the trait of the descendants at birth depends on the trait of the mother and on the number of descendants. First, we study the trait of a uniformly sampled individual in the population. We explicitly describe the penalized Markov process, named auxiliary process, corresponding to the dynamic of the trait of a "typical" individual by giving its associated infinitesimal generator. Then, we study the asymptotic behavior of the empirical measure associated with the branching process. Under assumptions assuring the ergodicity of the auxiliary process, we prove that the auxiliary process asymptotically corresponds to the trait along its ancestral lineage of a uniformly sampled individual in the population. Finally, we address the problem of parameter estimation in the case of a branching process structured by a diffusion. We consider data composed of the trait at birth of all individuals in the population until a given generation. We give kernel estimators for the transition density and the invariant measure of the chain corresponding to the trait of an individual along a lineage. Moreover, in the case of a reflected diffusion on a compact set, we use maximum likelihood estimation to reconstruct the division rate. We prove consistency and asymptotic normality for this estimator. We also carry out the numerical implementation of the estimator.
30

Parallélisation des algorithmes de Monte-Carlo multicanoniques

Brunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.

Page generated in 0.0483 seconds