• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 32
  • 8
  • Tagged with
  • 93
  • 93
  • 33
  • 24
  • 21
  • 20
  • 18
  • 17
  • 17
  • 16
  • 15
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Représentation probabiliste d'équations HJB pour le contrôle optimal de processus à sauts, EDSR (équations différentielles stochastiques rétrogrades) et calcul stochastique. / Probabilistic representation of HJB equations foroptimal control of jumps processes, BSDEs and related stochastic calculus

Bandini, Elena 07 April 2016 (has links)
Dans le présent document on aborde trois divers thèmes liés au contrôle et au calcul stochastiques, qui s'appuient sur la notion d'équation différentielle stochastique rétrograde (EDSR) dirigée par une mesure aléatoire. Les trois premiers chapitres de la thèse traitent des problèmes de contrôle optimal pour différentes catégories de processus markoviens non-diffusifs, à horizon fini ou infini. Dans chaque cas, la fonction valeur, qui est l'unique solution d'une équation intégro-différentielle de Hamilton-Jacobi-Bellman (HJB), est représentée comme l'unique solution d'une EDSR appropriée. Dans le premier chapitre, nous contrôlons une classe de processus semi-markoviens à horizon fini; le deuxième chapitre est consacré au contrôle optimal de processus markoviens de saut pur, tandis qu'au troisième chapitre, nous examinons le cas de processus markoviens déterministes par morceaux (PDMPs) à horizon infini. Dans les deuxième et troisième chapitres les équations d'HJB associées au contrôle optimal sont complètement non-linéaires. Cette situation survient lorsque les lois des processus contrôlés ne sont pas absolument continues par rapport à la loi d'un processus donné. Etant donné ce caractère complètement non-linéaire, ces équations ne peuvent pas être représentées par des EDSRs classiques. Dans ce cadre, nous avons obtenu des formules de Feynman-Kac non-linéaires en généralisant la méthode de la randomisation du contrôle introduite par Kharroubi et Pham (2015) pour les diffusions. Ces techniques nous permettent de relier la fonction valeur du problème de contrôle à une EDSR dirigée par une mesure aléatoire, dont une composante de la solution subit une contrainte de signe. En plus, on démontre que la fonction valeur du problème de contrôle originel non dominé coïncide avec la fonction valeur d'un problème de contrôle dominé auxiliaire, exprimé en termes de changements de mesures équivalentes de probabilité. Dans le quatrième chapitre, nous étudions une équation différentielle stochastique rétrograde à horizon fini, dirigée par une mesure aléatoire à valeurs entières sur $R_+ times E$, o`u $E$ est un espace lusinien, avec compensateur de la forme $nu(dt, dx) = dA_t phi_t(dx)$. Le générateur de cette équation satisfait une condition de Lipschitz uniforme par rapport aux inconnues. Dans la littérature, l'existence et unicité pour des EDSRs dans ce cadre ont été établies seulement lorsque $A$ est continu ou déterministe. Nous fournissons un théorème d'existence et d'unicité même lorsque $A$ est un processus prévisible, non décroissant, continu à droite. Ce résultat s’applique par exemple, au cas du contrôle lié aux PDMPs. En effet, quand $mu$ est la mesure de saut d'un PDMP sur un domaine borné, $A$ est prévisible et discontinu. Enfin, dans les deux derniers chapitres de la thèse nous traitons le calcul stochastique pour des processus discontinus généraux. Dans le cinquième chapitre, nous développons le calcul stochastique via régularisations des processus à sauts qui ne sont pas nécessairement des semimartingales. En particulier nous poursuivons l'étude des processus dénommés de Dirichlet faibles, dans le cadre discontinu. Un tel processus $X$ est la somme d'une martingale locale et d'un processus adapté $A$ tel que $[N, A] = 0$, pour toute martingale locale continue $N$. Pour une fonction $u: [0, T] times R rightarrow R$ de classe $C^{0,1}$ (ou parfois moins), on exprime un développement de $u(t, X_t)$, dans l'esprit d'une généralisation du lemme d'Itô, lequel vaut lorsque $u$ est de classe $C^{1,2}$. Le calcul est appliqué dans le sixième chapitre à la théorie des EDSRs dirigées par des mesures aléatoires. Dans de nombreuses situations, lorsque le processus sous-jacent $X$ est une semimartingale spéciale, ou plus généralement, un processus de Dirichlet spécial faible, nous identifions les solutions des EDSRs considérées via le processus $X$ et la solution $u$ d’une EDP intégro-différentielle associée. / In the present document we treat three different topics related to stochastic optimal control and stochastic calculus, pivoting on thenotion of backward stochastic differential equation (BSDE) driven by a random measure.After a general introduction, the three first chapters of the thesis deal with optimal control for different classes of non-diffusiveMarkov processes, in finite or infinite horizon. In each case, the value function, which is the unique solution to anintegro-differential Hamilton-Jacobi-Bellman (HJB) equation, is probabilistically represented as the unique solution of asuitable BSDE. In the first chapter we control a class of semi-Markov processes on finite horizon; the second chapter isdevoted to the optimal control of pure jump Markov processes, while in the third chapter we consider the case of controlled piecewisedeterministic Markov processes (PDMPs) on infinite horizon. In the second and third chapters the HJB equations associatedto the optimal control problems are fully nonlinear. Those situations arise when the laws of the controlled processes arenot absolutely continuous with respect to the law of a given, uncontrolled, process. Since the corresponding HJB equationsare fully nonlinear, they cannot be represented by classical BSDEs. In these cases we have obtained nonlinear Feynman-Kacrepresentation formulae by generalizing the control randomization method introduced in Kharroubi and Pham (2015)for classical diffusions. This approach allows us to relate the value function with a BSDE driven by a random measure,whose solution hasa sign constraint on one of its components.Moreover, the value function of the original non-dominated control problem turns out to coincide withthe value function of an auxiliary dominated control problem, expressed in terms of equivalent changes of probability measures.In the fourth chapter we study a backward stochastic differential equation on finite horizon driven by an integer-valued randommeasure $mu$ on $R_+times E$, where $E$ is a Lusin space, with compensator $nu(dt,dx)=dA_t,phi_t(dx)$. The generator of thisequation satisfies a uniform Lipschitz condition with respect to the unknown processes.In the literature, well-posedness results for BSDEs in this general setting have only been established when$A$ is continuous or deterministic. We provide an existence and uniqueness theorem for the general case, i.e.when $A$ is a right-continuous nondecreasing predictable process. Those results are relevant, for example,in the frameworkof control problems related to PDMPs. Indeed, when $mu$ is the jump measure of a PDMP on a bounded domain, then $A$ is predictable and discontinuous.Finally, in the two last chapters of the thesis we deal with stochastic calculus for general discontinuous processes.In the fifth chapter we systematically develop stochastic calculus via regularization in the case of jump processes,and we carry on the investigations of the so-called weak Dirichlet processes in the discontinuous case.Such a process $X$ is the sum of a local martingale and an adapted process $A$ such that $[N,A] = 0$, for any continuouslocal martingale $N$.Given a function $u:[0,T] times R rightarrow R$, which is of class $C^{0,1}$ (or sometimes less), we provide a chain rule typeexpansion for $u(t,X_t)$, which constitutes a generalization of It^o's lemma being valid when $u$ is of class $C^{1,2}$.This calculus is applied in the sixth chapter to the theory of BSDEs driven by random measures.In several situations, when the underlying forward process $X$ is a special semimartingale, or, even more generally,a special weak Dirichlet process,we identify the solutions $(Y,Z,U)$ of the considered BSDEs via the process $X$ and the solution $u$ to an associatedintegro PDE.
92

MODÈLE MATHÉMATIQUE D'ACQUISITION DES INVARIANTS PERCEPTIFS

Victorri, Bernard 02 February 1981 (has links) (PDF)
Dans cette étude, on cherche à résoudre un problème qui est au cœur de toute théorie de la perception : celui de l'invariance perceptive. Plus précisément, on cherche à modéliser les mécanismes neurophysiologiques qui sous-tendent l'acquisition de cette propriété fondamentale du système perceptif, qui consiste à "reconnaître" l'invariance de certaines qualités des objets dans l'environnement, malgré la diversité de formes que peut présenter l'information que le système en reçoit. Le point de départ est essentiellement neurophysiologique. A partir de la description du comportement et de l'organisation des neurones dans différentes régions du cerveau, spécialement des neurones impliqués dans la perception visuelle, on définit la notion de répertoire, qui va être le concept de base de notre modèle. Un répertoire est conçu comme le support neuronal de toute activité perceptive ; muni de deux variétés différentielles, la variété réceptrice et la variété effectrice, il est composé d'éléments qui représentent les unités fonctionnelles de notre modèle. Les données psychologiques et neurophysiologiques sur les capacités d'adaptation et d'apprentissage du système nerveux nous conduisent à définir une dynamique de renforcement sur les répertoires. Cette dynamique consiste en des modifications des poids des éléments du répertoire, c'est-à-dire de leur contribution à son comportement global. On démontre alors que, dans des conditions convenables, le répertoire va se stabiliser sous l'effet du renforcement et s'adapter aux contraintes environnementales auxquelles il est soumis. La théorie mathématique utilisée pour faire cette démonstration est celle des processus de Markov telle qu'elle a été développée par Norman (1972) pour les modèles d'apprentissage. On s'intéresse particulièrement à certains types de répertoires (répertoires disjoints et répertoires à renforcement sélectif) pour lesquels les processus stochastiques d'apprentissage se ramènent, en première approximation, à des processus dynamiques déterministes. On discute alors des points forts et des faiblesses du modèle, en comparant ses performances d'une part à la réalité biologique qu'il est censé représenter et d'autre part à d'autres types de modélisation qui ont pu être proposés. On essaie ensuite d'appliquer le modèle à la résolution du problème posé : on prouve que la stabilisation de répertoires bien choisis permet de rendre compte de l'acquisition d'invariants perceptifs impliqués dans des comportements sensori-moteurs simples. Au passage, on est amené à se poser le problème de la stabilisation de* systèmes de répertoires et on le résout en partie. Enfin, on essaie de généraliser ces résultats à des processus perceptifs plus complexes, ce qui nous conduit à lier la notion d'invariants perceptifs à celle d'action de groupes de Lie sur des variétés et l'on montre l'intérêt de cette approche dont la première formulation remonte à Poincaré (1902, 1905).
93

Inégalités de déviations, principe de déviations modérées et théorèmes limites pour des processus indexés par un arbre binaire et pour des modèles markoviens / Deviation inequalities, moderate deviations principle and some limit theorems for binary tree-indexed processes and for Markovian models.

Bitseki Penda, Siméon Valère 20 November 2012 (has links)
Le contrôle explicite de la convergence des sommes convenablement normalisées de variables aléatoires, ainsi que l'étude du principe de déviations modérées associé à ces sommes constituent les thèmes centraux de cette thèse. Nous étudions principalement deux types de processus. Premièrement, nous nous intéressons aux processus indexés par un arbre binaire, aléatoire ou non. Ces processus ont été introduits dans la littérature afin d'étudier le mécanisme de la division cellulaire. Au chapitre 2, nous étudions les chaînes de Markov bifurcantes. Ces chaînes peuvent être vues comme une adaptation des chaînes de Markov "usuelles'' dans le cas où l'ensemble des indices à une structure binaire. Sous des hypothèses d'ergodicité géométrique uniforme et non-uniforme d'une chaîne de Markov induite, nous fournissons des inégalités de déviations et un principe de déviations modérées pour les chaînes de Markov bifurcantes. Au chapitre 3, nous nous intéressons aux processus bifurcants autorégressifs d'ordre p (). Ces processus sont une adaptation des processus autorégressifs linéaires d'ordre p dans le cas où l'ensemble des indices à une structure binaire. Nous donnons des inégalités de déviations, ainsi qu'un principe de déviations modérées pour les estimateurs des moindres carrés des paramètres "d'autorégression'' de ce modèle. Au chapitre 4, nous traitons des inégalités de déviations pour des chaînes de Markov bifurcantes sur un arbre de Galton-Watson. Ces chaînes sont une généralisation de la notion de chaînes de Markov bifurcantes au cas où l'ensemble des indices est un arbre de Galton-Watson binaire. Elles permettent dans le cas de la division cellulaire de prendre en compte la mort des cellules. Les hypothèses principales que nous faisons dans ce chapitre sont : l'ergodicité géométrique uniforme d'une chaîne de Markov induite et la non-extinction du processus de Galton-Watson associé. Au chapitre 5, nous nous intéressons aux modèles autorégressifs linéaires d'ordre 1 ayant des résidus corrélés. Plus particulièrement, nous nous concentrons sur la statistique de Durbin-Watson. La statistique de Durbin-Watson est à la base des tests de Durbin-Watson, qui permettent de détecter l'autocorrélation résiduelle dans des modèles autorégressifs d'ordre 1. Nous fournissons un principe de déviations modérées pour cette statistique. Les preuves du principe de déviations modérées des chapitres 2, 3 et 4 reposent essentiellement sur le principe de déviations modérées des martingales. Les inégalités de déviations sont établies principalement grâce à l'inégalité d'Azuma-Bennet-Hoeffding et l'utilisation de la structure binaire des processus. Le chapitre 5 est né de l'importance qu'a l'ergodicité explicite des chaînes de Markov au chapitre 3. L'ergodicité géométrique explicite des processus de Markov à temps discret et continu ayant été très bien étudiée dans la littérature, nous nous sommes penchés sur l'ergodicité sous-exponentielle des processus de Markov à temps continu. Nous fournissons alors des taux explicites pour la convergence sous exponentielle d'un processus de Markov à temps continu vers sa mesure de probabilité d'équilibre. Les hypothèses principales que nous utilisons sont : l'existence d'une fonction de Lyapunov et d'une condition de minoration. Les preuves reposent en grande partie sur la construction du couplage et le contrôle explicite de la queue du temps de couplage. / The explicit control of the convergence of properly normalized sums of random variables, as well as the study of moderate deviation principle associated with these sums constitute the main subjects of this thesis. We mostly study two sort of processes. First, we are interested in processes labelled by binary tree, random or not. These processes have been introduced in the literature in order to study mechanism of the cell division. In Chapter 2, we study bifurcating Markov chains. These chains may be seen as an adaptation of "usual'' Markov chains in case the index set has a binary structure. Under uniform and non-uniform geometric ergodicity assumptions of an embedded Markov chain, we provide deviation inequalities and a moderate deviation principle for the bifurcating Markov chains. In chapter 3, we are interested in p-order bifurcating autoregressive processes (). These processes are an adaptation of $p$-order linear autoregressive processes in case the index set has a binary structure. We provide deviation inequalities, as well as an moderate deviation principle for the least squares estimators of autoregressive parameters of this model. In Chapter 4, we dealt with deviation deviation inequalities for bifurcating Markov chains on Galton-Watson tree. These chains are a generalization of the notion of bifurcating Markov chains in case the index set is a binary Galton-Watson tree. They allow, in case of cell division, to take into account cell's death. The main hypothesis that we do in this chapter are : uniform geometric ergodicity of an embedded Markov chain and the non-extinction of the associated Galton-Watson process. In Chapter 5, we are interested in first-order linear autoregressive models with correlated errors. More specifically, we focus on the Durbin-Watson statistic. The Durbin-Watson statistic is at the base of Durbin-Watson tests, which allow to detect serial correlation in the first-order autoregressive models. We provide a moderate deviation principle for this statistic. The proofs of moderate deviation principle of Chapter 2, 3 and 4 are essentially based on moderate deviation for martingales. To establish deviation inequalities, we use most the Azuma-Bennet-Hoeffding inequality and the binary structure of processes. Chapter 6 was born from the importance that explicit ergodicity of Markov chains has in Chapter 2. Since explicit geometric ergodicity of discrete and continuous time Markov processes has been well studied in the literature, we focused on the sub-exponential ergodicity of continuous time Markov Processes. We thus provide explicit rates for the sub-exponential convergence of a continuous time Markov process to its stationary distribution. The main hypothesis that we use are : existence of a Lyapunov fonction and of a minorization condition. The proofs are largely based on the coupling construction and the explicit control of the tail of the coupling time.

Page generated in 0.0888 seconds