• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 43
  • 7
  • Tagged with
  • 144
  • 45
  • 38
  • 31
  • 27
  • 21
  • 20
  • 20
  • 19
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Modélisation radiobiologique pour la planification des traitements en radiothérapie à partir de données d’imagerie spécifiques aux patients

Trépanier, Pier-Yves 07 1900 (has links)
Un modèle de croissance et de réponse à la radiothérapie pour le glioblastome multiforme (GBM) basé le formalisme du modèle de prolifération-invasion (PI) et du modèle linéaire-quadratique a été développé et implémenté. La géométrie spécifique au patient est considérée en modélisant, d'une part, les voies d'invasion possibles des GBM avec l'imagerie du tenseur de diffusion (DTI) et, d'autre part, les barrières à la propagation à partir des images anatomiques disponibles. La distribution de dose réelle reçue par un patient donné est appliquée telle quelle dans les simulations, en respectant l'horaire de traitement. Les paramètres libres du modèle (taux de prolifération, coefficient de diffusion, paramètres radiobiologiques) sont choisis aléatoirement à partir de distributions de valeurs plausibles. Un total de 400 ensembles de valeurs pour les paramètres libres sont ainsi choisis pour tous les patients, et une simulation de la croissance et de la réponse au traitement est effectuée pour chaque patient et chaque ensemble de paramètres. Un critère de récidive est appliqué sur les résultats de chaque simulation pour identifier un lieu probable de récidive (SPR). La superposition de tous les SPR obtenus pour un patient donné permet de définir la probabilité d'occurrence (OP). Il est démontré qu'il existe des valeurs de OP élevées pour tous les patients, impliquant que les résultats du modèle PI ne sont pas très sensibles aux valeurs des paramètres utilisés. Il est également démontré comment le formalisme développé dans cet ouvrage pourrait permettre de définir un volume cible personnalisé pour les traitements de radiothérapie du GBM. / We have developed and implemented a model of growth and response to radiotherapy for glioblastoma multiforme (GBM) based on the proliferation-invasion (PI) formalism and linear-quadratic model. We take into account patient-specific geometry to model the possible invasion pathways of GBM with diffusion tensor imaging (DTI) and the barriers to dispersal from anatomical images available. The actual dose distribution received by a given patient is applied as such in the simulation, respecting the treatment schedule. The free parameters in the model (proliferation rate, diffusion coefficient, radiobiological parameters) are randomly chosen from a distribution of plausible values. A total of 400 sets of values for the free parameters are thus chosen for all patients, and a simulation of the growth and the response to treatment is performed for each patient and each set of parameters. A failure criterion is applied to the results of each simulation to identify a site of potential recurrence (SPR). The superposition of all SPR obtained for a given patient defines the occurrence probability (OP). We show that high OP values exist for all patients and conclude that the PI model results are not very sensitive to the values of the parameters used. Finally, we show how the formalism developed in this work could help to define a custom target volume for radiation treatment of GBM.
122

Development of new scenario decomposition techniques for linear and nonlinear stochastic programming

Zehtabian, Shohre 08 1900 (has links)
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif. / In the literature of optimization problems under uncertainty a common approach of dealing with two- and multi-stage problems is to use scenario analysis. To do so, the uncertainty of some data in the problem is modeled by stage specific random vectors with finite supports. Each realization is called a scenario. By using scenarios, it is possible to study smaller versions (subproblems) of the underlying problem. As a scenario decomposition technique, the progressive hedging algorithm is one of the most popular methods in multi-stage stochastic programming problems. In spite of full decomposition over scenarios, progressive hedging efficiency is greatly sensitive to some practical aspects, such as the choice of the penalty parameter and handling the quadratic term in the augmented Lagrangian objective function. For the choice of the penalty parameter, we review some of the popular methods, and design a novel adaptive strategy that aims to better follow the algorithm process. Numerical experiments on linear multistage stochastic test problems suggest that most of the existing techniques may exhibit premature convergence to a sub-optimal solution or converge to the optimal solution, but at a very slow rate. In contrast, the new strategy appears to be robust and efficient, converging to optimality in all our experiments and being the fastest in most of them. For the question of handling the quadratic term, we review some existing techniques and we suggest to replace the quadratic term with a linear one. Although this method has yet to be tested, we have the intuition that it will reduce some numerical and theoretical difficulties of progressive hedging in linear problems.
123

Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards / Minimal performance analysis for non standard estimation models

Ren, Chengfang 28 September 2015 (has links)
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels. / In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems.
124

Stabilité et stabilisation en temps fini des systèmes dynamiques / Finite Stability and Stabilization of Dynamic Systems

Bhiri, Bassem 05 July 2017 (has links)
Ce mémoire de thèse traite de la stabilité en temps fini et de la stabilisation en temps fini des systèmes dynamiques. En effet, il est souvent important de garantir que pendant le régime transitoire, les trajectoires d'état ne dépassent pas certaines limites prédéfinies afin d'éviter les saturations et l'excitation des non-linéarités du système. Un système dynamique est dit stable en temps fini FTS si, pour tout état initial appartenant à un ensemble borné prédéterminé, la trajectoire d'état reste comprise dans un autre ensemble borné prédéterminé pendant un temps fini et fixé. Lorsque le système est perturbé, on parle de bornitude en temps fini FTB. Premièrement, des nouvelles conditions suffisantes assurant la synthèse d'un correcteur FTB par retour de sortie dynamique des systèmes linéaires continus invariants perturbés ont été développées via une approche descripteur originale. Le résultat a été établi par une transformation de congruence particulière. Les conditions obtenues sont sous forme de LMIs. Deuxièmement, l'utilisation de la notion d'annulateur combinée avec le lemme de Finsler, permet d’obtenir des nouvelles conditions sous formes LMIs garantissant la stabilité et la stabilisation en temps fini des systèmes non linéaires quadratiques. Enfin, pour obtenir des conditions encore moins pessimistes dans un contexte de stabilité en temps fini, de nouveaux développements ont été proposés en utilisant des fonctions de Lyapunov polynomiales / This dissertation deals with the finite time stability and the finite time stabilization of dynamic systems. Indeed, it is often important to ensure that during the transient regime, the state trajectories do not exceed certain predefined limits in order to avoid saturations and excitations of the nonlinearities of the system. Hence the interest is to study the stability of the dynamic system in finite time. A dynamic system is said to be stable in finite time (FTS) if, for any initial state belonging to a predetermined bounded set, the state trajectory remains within another predetermined bounded set for a finite and fixed time. When the system is disturbed, it is called finite time boundedness (FTB). In this manuscript, the goal is to improve the results of finite time stability used in the literature. First, new sufficient conditions expressed in terms of LMIs for the synthesis of an FTB controller by dynamic output feedback have been developed via an original descriptor approach. An original method has been proposed which consists in using a particular congruence transformation. Second, new LMI conditions for the study of finite time stability and finite time stabilization have been proposed for disturbed and undisturbed nonlinear quadratic systems. Third, to obtain even less conservative conditions, new developments have been proposed using polynomial Lyapunov functions
125

Analyse de performances en traitement d'antenne : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite / Performance analysis in array signal processing. : lower bounds on the mean square error and statistical resolution limit

El Korso, Mohammed Nabil 07 July 2011 (has links)
Ce manuscrit est dédié à l’analyse de performances en traitement d’antenne pour l’estimation des paramètres d’intérêt à l’aide d’un réseau de capteurs. Il est divisé en deux parties :– Tout d’abord, nous présentons l’étude de certaines bornes inférieures de l’erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l’étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d’observations). Puis, nous étudions d’autres bornes inférieures de l’erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l’erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).– Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c’est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une ”correcte” estimation des paramètres. Nous présentons quelques applications bien connues en traitement d’antenne avant d’étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d’hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d’observation multidimensionnels / This manuscript concerns the performance analysis in array signal processing. It can bedivided into two parts :- First, we present the study of some lower bounds on the mean square error related to the source localization in the near eld context. Using the Cramér-Rao bound, we investigate the mean square error of the maximum likelihood estimator w.r.t. the direction of arrivals in the so-called asymptotic area (i.e., for a high signal to noise ratio with a nite number of observations.) Then, using other bounds than the Cramér-Rao bound, we predict the threshold phenomena.- Secondly, we focus on the concept of the statistical resolution limit (i.e., the minimum distance between two closely spaced signals embedded in an additive noise that allows a correct resolvability/parameter estimation.) We de ne and derive the statistical resolution limit using the Cramér-Rao bound and the hypothesis test approaches for the mono-dimensional case. Then, we extend this concept to the multidimensional case. Finally, a generalized likelihood ratio test based framework for the multidimensional statistical resolution limit is given to assess the validity of the proposed extension.
126

Tests de permutation d’indépendance en analyse multivariée

Guetsop Nangue, Aurélien 11 1900 (has links)
Cette thèse est rédigée par articles. Les articles sont rédigés en anglais et le reste de la thèse est rédigée en français. / Le travail établit une équivalence en termes de puissance entre les tests basés sur la alpha-distance de covariance et sur le critère d'indépendance de Hilbert-Schmidt (HSIC) avec fonction caractéristique de distribution de probabilité stable d'indice alpha avec paramètre d'échelle suffisamment petit. Des simulations en grandes dimensions montrent la supériorité des tests de distance de covariance et des tests HSIC par rapport à certains tests utilisant les copules. Des simulations montrent également que la distribution de Pearson de type III, très utile et moins connue, approche la distribution exacte de permutation des tests et donne des erreurs de type I précises. Une nouvelle méthode de sélection adaptative des paramètres d'échelle pour les tests HSIC est proposée. Trois simulations, dont deux sont empruntées de l'apprentissage automatique, montrent que la nouvelle méthode de sélection améliore la puissance des tests HSIC. Le problème de tests d'indépendance entre deux vecteurs est généralisé au problème de tests d'indépendance mutuelle entre plusieurs vecteurs. Le travail traite aussi d'un problème très proche à savoir, le test d'indépendance sérielle d'une suite multidimensionnelle stationnaire. La décomposition de Möbius des fonctions caractéristiques est utilisée pour caractériser l'indépendance. Des tests généralisés basés sur le critère d'indépendance de Hilbert-Schmidt et sur la distance de covariance en sont obtenus. Une équivalence est également établie entre le test basé sur la distance de covariance et le test HSIC de noyau caractéristique d'une distribution stable avec des paramètres d'échelle suffisamment petits. La convergence faible du test HSIC est obtenue. Un calcul rapide et précis des valeurs-p des tests développés utilise une distribution de Pearson de type III comme approximation de la distribution exacte des tests. Un résultat fascinant est l'obtention des trois premiers moments exacts de la distribution de permutation des statistiques de dépendance. Une méthodologie similaire a été développée pour le test d'indépendance sérielle d'une suite. Des applications à des données réelles environnementales et financières sont effectuées. / The main result establishes the equivalence in terms of power between the alpha-distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distribution of index alpha with sufficiently small scale parameters. Large-scale simulations reveal the superiority of these two tests over other tests based on the empirical independence copula process. They also establish the usefulness of the lesser known Pearson type III approximation to the exact permutation distribution. This approximation yields tests with more accurate type I error rates than the gamma approximation usually used for HSIC, especially when dimensions of the two vectors are large. A new method for scale parameter selection in HSIC tests is proposed which improves power performance in three simulations, two of which are from machine learning. The problem of testing mutual independence between many random vectors is addressed. The closely related problem of testing serial independence of a multivariate stationary sequence is also considered. The Möbius transformation of characteristic functions is used to characterize independence. A generalization to p vectors of the alpha -distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distributionof index alpha is obtained. It is shown that an HSIC test with sufficiently small scale parameters is equivalent to an alpha -distance covariance test. Weak convergence of the HSIC test is established. A very fast and accurate computation of p-values uses the Pearson type III approximation which successfully approaches the exact permutation distribution of the tests. This approximation relies on the exact first three moments of the permutation distribution of any test which can be expressed as the sum of all elements of a componentwise product of p doubly-centered matrices. The alpha -distance covariance test and the HSIC test are both of this form. A new selection method is proposed for the scale parameter of the characteristic kernel of the HSIC test. It is shown in a simulation that this adaptive HSIC test has higher power than the alpha-distance covariance test when data are generated from a Student copula. Applications are given to environmental and financial data.
127

Algèbres Hom-Nambu quadratiques et Cohomologie des algèbres Hom-Nambu-Lie multiplicatives / Quadratic Hom-Nambu algebras and cohomology of multiplicative Hom-Nambu-Lie algebras

Mabrouk, Sami 15 December 2012 (has links)
Dans le premier chapitre de la thèse, nous résumons d’abord les définitions des algèbres Hom-Nambu n-aires (resp. Hom-Nambu- Lie) et algèbres Hom-Nambu n-aires multiplicatives (resp. Hom-Nambu-Lie multiplicatives). Ensuite, on donne,quelques exemples d'algèbres Hom-Nambu de dimension finie. Dans la troisième section du chapitre on rappellela classication des algèbres Hom-Nambu-Lie ternaires de dimension 3 correspondant auxhomomorphismes diagonaux donnée par Ataguema, Makhlouf et Silvestrov dans [12]. Laquatrième section est consacrée aux différentes manières de construire des algèbres n-airesde type Hom-Nambu. On rappelle la construction par twist initiée par Yau. Ensuite on la généralise en une construction d'algèbre n-aire de Hom-Nambu à partir d'une algèbre n-aire de Hom-Nambu et d'un morphisme faible. On s'intéresse aussi à des constructions d'arité plus grande ou plus petite et par produit tensoriel. On montre par ailleurs comment obtenir de nouvelles algèbres n-aires de Hom-Nambu en utilisant les éléments du centroide. La cinquième section est consacrée aux notions de dérivations et de représentationspour les algèbres n-aires. On étudie les αk-dérivations, les dérivations centrales et dansle cas général, la théorie des représentations des algèbres Hom-Nambu n-aires. Nousdiscutons en particulier les cas des représentations adjointes et coadjointes. Les résultatsobtenus dans cette section généralisent ceux donnés pour le cas binaire dans [16, 57]. / The aim of this thesis is to study representation theory and cohomology of n-ary Hom-Nambu-Lie algebras, as well as quadratic structures on these algebras. It is organized as follows.• Chapter 1. n-ary Hom-Nambu algebras : in the first section we recall the definitions of n-ary Hom-Nambu algebras and n-ary Hom-Nambu-Lie algebras, introduced by Ataguema, Makhlouf and Silvestrov and provide some key constructions. These algebras correspond to a generalized version by twisting of n-ary Nambu algebras and Nambu-Lie algebras which are called Filippov algebras. We deal in this chapter with a subclass of n-ary Hom-Nambu algebras called multiplicative n-ary Hom-Nambu algebras. In Section 1.2, we recall the list of 3-dimensional ternary Hom-Nambu-Lie algebras of special type corresponding to diagonal homomorphisms. In Section 1.4 we show different construction procedures. We recall the construction procedures by twisting principles and provide some new constructions using for example the centroid. The first twisting principle, introduced for binary case, was extend to n-ary case. The second twisting principle was introduced for binary algebras. We will extend it to n-ary case in the sequel. Also we recall a construction by tensor product of symmetric totally n-ary Hom-associative algebra by an n-ary Hom-Nambu algebra. In Section 1.5, we extend representation theory of Hom-Lie algebras to the n-ary case and discuss the derivations, αk-derivations and central derivations. The last section of chapter 1 is dedicated to ternary q-Virasoro-Witt algebras. We recall constructions of infinite dimensional ternary Hom-Nambu algebras.• Chapter 2. Cohomology of n-ary multiplicative Hom-Nambu algebras : InSection 2.1. We define a central extension. In the second Section we show that for an n-ary Hom-Nambu-Lie algebra N, the space ∧n−1 N carries a structure of Hom-Leibniz algebra and we dene a cohomology which is suitable for the study of one parameter formal deformations of n-ary Hom-Nambu-Lie algebras. In Section 2.4, we extend to n-ary multiplicative Hom-Nambu-Lie algebras the Takhtajan's construction of a cohomology of ternary Nambu-Lie algebras starting from Chevalley-Eilenberg cohomology of binary Lie algebras. The cohomology of multiplicative Hom-Lie algebras. The cohomology complex for Leibniz algebras was defined by Loday and Pirashvili.• Chapter 3. Quadratic n-ary Hom-Nambu algebras : In the first section we introduce a class of Hom-Nambu-Lie algebras which possess an inner product. In Section 3.3, we provide some constructions of Hom-quadratic Hom-Nambu-Lie algebras starting from an ordinary Nambu-Lie algebra and from tensor product of Hom-quadratic commutative Hom-associative algebra and Hom-quadratic Hom-Nambu-Lie algebra. In Section 3.5, we provide a construction of n-ary Hom-Nambu algebra L which is a generalization of the trivial T∗-extension. In Section 3.6, we give a construction of ternary algebra arising from quadratic Lie algebra. In Section 3.7, we construct quadratic n-ary Hom-Nambu algebras involving elements of the centroid of n-ary Nambu algebras.
128

Études adaptatives et comparatives de certains algorithmes en optimisation : implémentations effectives et applications

Yassine, Adnan 04 July 1989 (has links) (PDF)
Sont étudiés: 1) l'algorithme s.g.g.p. Pour la résolution d'un programme linéaire général; 2) la méthode de pivotage de Lemke, la methode du gradient conjugue conditionnel et la methode de l'inverse partiel pour la résolution des programmes quadratiques convexes; 3) les méthodes d'approximation extérieure et les méthodes de coupes planes et les méthodes de région de confiance pour l'optimisation non convexe.
129

Voyage au coeur des EDSRs du second ordre et autres problèmes contemporains de mathématiques financières.

Possamaï, Dylan 12 December 2011 (has links) (PDF)
Cette thèse présente deux principaux sujets de recherche indépendants, le dernier étant décliné sous la forme de deux problèmes distincts. Dans toute la première partie de la thèse, nous nous intéressons à la notion d'équations différentielles stochastiques rétrogrades du second ordre (dans la suite 2EDSR), introduite tout d'abord par Cheredito, Soner, Touzi et Victoir puis reformulée récemment par Soner, Touzi et Zhang. Nous prouvons dans un premier temps une extension de leurs résultats d'existence et d'unicité lorsque le générateur considéré est seulement continu et à croissance linéaire. Puis, nous poursuivons notre étude par une nouvelle extension au cas d'un générateur quadratique. Ces résultats théoriques nous permettent alors de résoudre un problème de maximisation d'utilité pour un investisseur dans un marché incomplet, à la fois car des contraintes sont imposées sur ses stratégies d'investissement, et parce que la volatilité du marché est supposée être inconnue. Nous prouvons dans notre cadre l'existence de stratégies optimales, caractérisons la fonction valeur du problème grâce à une EDSR du second ordre et résolvons explicitement certains exemples qui nous permettent de mettre en exergue les modifications induites par l'ajout de l'incertitude de volatilité par rapport au cadre habituel. Nous terminons cette première partie en introduisant la notion d'EDSR du second ordre avec réflexion sur un obstacle. Nous prouvons l'existence et l'unicité des solutions de telles équations, et fournissons une application possible au problème de courverture d'options Américaines dans un marché à volatilité incertaine. Le premier chapitre de la seconde partie de cette thèse traite d'un problème de pricing d'options dans un modèle où la liquidité du marché est prise en compte. Nous fournissons des développements asymptotiques de ces prix au voisinage de liquidité infinie et mettons en lumière un phénomène de transition de phase dépendant de la régularité du payoff des options considérées. Quelques résultats numériques sont également proposés. Enfin, nous terminons cette thèse par l'étude d'un problème Principal/Agent dans un cadre d'aléa moral. Une banque (qui joue le rôle de l'agent) possède un certain nombre de prêts dont elle est prête à échanger les intérêts contre des flux de capitaux. La banque peut influencer les probabilités de défaut de ces emprunts en exerçant ou non une activité de surveillance coûteuse. Ces choix de la banque ne sont connus que d'elle seule. Des investisseurs (qui jouent le rôle de principal) souhaitent mettre en place des contrats qui maximisent leur utilité tout en incitant implicitement la banque à exercer une activité de surveillance constante. Nous résolvons ce problème de contrôle optimal explicitement, décrivons le contrat optimal associé ainsi que ses implications économiques et fournissons quelques simulations numériques.
130

Etude des EDS rétrogrades avec sauts et problèmes de gestion du risque

Kazi-Tani, Mohamed Nabil 10 December 2012 (has links) (PDF)
Cette thèse traite d'une part, de questions de gestion, de mesure et de transfert du risque et d'autre part, de problèmes d'analyse stochastique à sauts avec incertitude de modèle. Le premier chapitre est consacré à l'analyse des intégrales de Choquet, comme mesures de risque monétaires non nécessairement invariantes en loi. Nous établissons d'abord un nouveau résultat de représentation des mesures de risque comonotones, puis un résultat de représentation des intégrales de Choquet en introduisant la notion de distorsion locale. Ceci nous permet de donner ensuite une forme explicite à l'inf-convolution de deux intégrales de Choquet, avec des exemples illustrant l'impact de l'absence de la propriété d'invariance en loi. Nous nous intéressons ensuite à un problème de tarification d'un contrat de réassurance non proportionnelle, contenant des clauses de reconstitution. Après avoir défini le prix d'indifférence relatif à la fois à une fonction d'utilité et à une mesure de risque, nous l'encadrons par des valeurs facilement implémentables. Nous passons alors à un cadre dynamique en temps. Pour cela, nous montrons, en adoptant une approche par point fixe, un théorème d'existence de solutions bornées pour une classe d'équations différentielles stochastiques rétrogrades (EDSRs dans la suite) avec sauts et à croissance quadratique. Sous une hypothèse additionnelle classique dans le cadre à sauts, ou sous une hypothèse de convexité du générateur, nous établissons un résultat d'unicité grâce à un principe de comparaison. Nous analysons les propriétés des espérances non linéaires correspondantes. En particulier, nous obtenons une décomposition de Doob-Meyer des surmartingales non-linéaires ainsi que leur régularité en temps. En conséquence, nous en déduisons facilement un principe de comparaison inverse. Nous appliquons ces résultats à l'étude des mesures de risque dynamiques associées, sur une filtration engendrée à la fois par un mouvement brownien et par une mesure aléatoire à valeurs entières, à leur repésentation duale, ainsi qu'à leur inf-convolution, avec des exemples explicites. La seconde partie de cette thèse concerne l'analyse de l'incertitude de modèle, dans le cas particulier des EDSRs du second ordre avec sauts. Nous imposons que ces équations aient lieu au sens presque-sûr, pour toute une famille non dominée de mesures de probabilités qui sont solution d'un problème de martingales sur l'espace de Skorohod. Nous étendons d'abord la définition des EDSRs du second ordre, telles que définies par Soner, Touzi et Zhang, au cas avec sauts. Pour ce faire, nous démontrons un résultat d'agrégation au sens de Soner, Touzi et Zhang sur l'espace des trajectoires càdlàg. Ceci nous permet, entre autres, d'utiliser une version quasi-sûre du compensateur de la mesure des sauts du processus canonique. Nous montrons alors un résultat d'existence et d'unicité pour notre classe d'EDSRs du second ordre. Ces équations sont affectées par l'incertitude portant à la fois sur la volatilité et sur les sauts du processus qui les dirige.

Page generated in 0.0718 seconds