• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 33
  • 11
  • Tagged with
  • 118
  • 43
  • 22
  • 20
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Prévision non paramétrique dans les modèles de censure via l'estimation du quantile conditionnel en dimension infinie / Nonparametric prediction in censorship models via the estimation of the conditional quantile in infinite dimension

Horrigue, Walid 12 December 2012 (has links)
Dans cette thèse, nous étudions les propriétés asymptotiques de paramètres fonctionnels conditionnels en statistique non paramétrique, quand la variable explicative prend ses valeurs dans un espace de dimension infinie. Dans ce cadre non paramétrique, on considère les estimateurs des paramètres fonctionnels usuels, tels la loi conditionnelle, la densité de probabilité conditionnelle, ainsi que le quantile conditionnel. Le premier travail consiste à proposer un estimateur du quantile conditionnel et de prouver sa convergence uniforme sur un sous-ensemble compact. Afin de suivre la convention dans les études biomédicales, nous considérons une suite de v.a {Ti, i ≥ 1} identiquement distribuées, de densité f, censurée à droite par une suite aléatoire {Ci, i ≥ 1} supposée aussi indépendante, identiquement distribuée et indépendante de {Ti, i ≥ 1}. Notre étude porte sur des données fortement mélangeantes et X la covariable prend des valeurs dans un espace à dimension infinie.Le second travail consiste à établir la normalité asymptotique de l’estimateur à noyau du quantile conditionnel convenablement normalisé, pour des données fortement mélangeantes, et repose sur la probabilité de petites boules. Plusieurs applications à des cas particuliers ont été traitées. Enfin, nos résultats sont appliqués à des données simulées et montrent la qualité de notre estimateur. / In this thesis, we study some asymptotic properties of conditional functional parameters in nonparametric statistics setting, when the explanatory variable takes its values in infinite dimension space. In this nonparametric setting, we consider the estimators of the usual functional parameters, as the conditional law, the conditional probability density, the conditional quantile. We are essentially interested in the problem of forecasting in the nonparametric conditional models, when the data are functional random variables. Firstly, we propose an estimator of the conditional quantile and we establish its uniform strong convergence with rates over a compact subset. To follow the convention in biomedical studies, we consider an identically distributed sequence {Ti, i ≥ 1}, here density f, right censored by a random {Ci, i ≥ 1} also assumed independent identically distributed and independent of {Ti, i ≥ 1}. Our study focuses on dependent data and the covariate X takes values in an infinite space dimension. In a second step we establish the asymptotic normality of the kernel estimator of the conditional quantile, under α-mixing assumption and on the concentration properties on small balls of the probability measure of the functional regressors. Many applications in some particular cases have been also given.
102

Les pratiques des intervenants oeuvrant dans l'évaluation et le suivi de la libération des justiciables racisés

Gallesio, Kenza 11 1900 (has links)
L’objectif de cette étude est de comprendre les pratiques des intervenants oeuvrant dans l’évaluation et le suivi de la libération des justiciables racisés. À travers des entrevues semi-dirigées, nous nous sommes intéressées aux propos de 16 intervenants oeuvrant dans l’évaluation (milieu carcéral) et dans le suivi (milieu communautaire) de la libération des justiciables. À l’aide de la théorie des représentations sociales, nous avons analysé le regard que les participants portent sur les justiciables racisés ainsi qu’au regard qu’ils portent sur leurs pratiques et sur leurs relations avec ces derniers. Il ressort des analyses que les représentations sociales des intervenants concernant ces justiciables sont assez justes, puisqu’ils semblent conscients de leurs difficultés au sein du système pénal. Toutefois, ces représentations ne sont pas vraiment ancrées dans leurs représentations sociales. La grande incompréhension et confusion auxquelles ils font face entrainent des pratiques frileuses concernant l’adaptation culturelle de leurs interventions. / The objective of this study is to understand the professional practices of professionals working in the release assessment and follow-up of inmates who are members of racialized groups. By conducting semi-directed interviews, we focused on the takes of 16 professionals working in the release assessment (prison) and follow-up (community setting) of inmates. We used the social representations theory to analyze the participants’ views on inmates who are members of racialized groups and also on their practices and relationship with them. It appears that their social representations about those inmates are quite corrects because they seem aware of their difficulties in the criminal justice system. However, these practices aren’t really anchored in their social representations. The important misunderstanding and confusion that they face, cause overcautious practices when it concerns the cultural adaptation of their interventions.
103

Processus décisionnel en matière de libération conditionnelle

Mainville, Karine 09 1900 (has links)
cotutelle / Ce mémoire s’intéresse au processus décisionnel en matière de libération conditionnelle et plus particulièrement aux fondements de la prise de décision des commissaires. Il vise à comprendre comment les commissaires interprètent et utilisent les critères de la loi pour décider d’octroyer ou de refuser une libération anticipée. Pour ce faire, une trentaine de recommandations d’intervenants du milieu carcéral et de décisions des commissaires ainsi que des entrevues réalisées auprès de ces derniers sont analysées. Après l’analyse de l’ensemble du matériel, il en ressort que certains critères ont plus d’impact dans la prise de décision et qu’il s’agit, finalement, d’un processus de réflexion complexe, qui ne consiste pas uniquement en un calcul de critères à considérer. La présente recherche démontre que les critères sont utilisés et interprétés de manière différente selon les dossiers. Notamment, la gravité du crime peut justifier un octroi et l’audience permet, certaines fois, de porter un regard différent sur les dossiers. De plus, c’est à travers une notion de confiance que se construit, à son tour, la notion du risque acceptable. / This dissertation focuses on the decision-making process in terms of parole and more particularly the foundations of the decision-making of the commissioners. It aims to understand how commissioners interpret and use the criteria of the law to decide whether to grant or refuse early release. To do this, around thirty recommendations from prison stakeholders and decisions by commissioners, as well as interviews conducted with them, were analyzed. After analyzing all the material, it emerges that certain criteria have more impact in decision-making and that it is, ultimately, a complex reflection process, which does not consist solely of a calculation of criteria to consider. This research demonstrates that the criteria are used and interpreted differently, depending on the files. In particular, the seriousness of the crime can justify a grant and the hearing allows, sometimes, to take a different look at the cases. Furthermore, it is through a notion of trust that the notion of acceptable risk is constructed.
104

Evolution des méthodes de gestion des risques dans les banques sous la réglementation de Bale III : une étude sur les stress tests macro-prudentiels en Europe / Evolution of risk management methods in banks under Basel III regulation : a study on macroprudential stress tests in Europe

Dhima, Julien 11 October 2019 (has links)
Notre thèse consiste à expliquer, en apportant quelques éléments théoriques, les imperfections des stress tests macro-prudentiels d’EBA/BCE, et de proposer une nouvelle méthodologie de leur application ainsi que deux stress tests spécifiques en complément. Nous montrons que les stress tests macro-prudentiels peuvent être non pertinents lorsque les deux hypothèses fondamentales du modèle de base de Gordy-Vasicek utilisé pour évaluer le capital réglementaire des banques en méthodes internes (IRB) dans le cadre du risque de crédit (portefeuille de crédit asymptotiquement granulaire et présence d’une seule source de risque systématique qui est la conjoncture macro-économique), ne sont pas respectées. Premièrement, ils existent des portefeuilles concentrés pour lesquels les macro-stress tests ne sont pas suffisants pour mesurer les pertes potentielles, voire inefficaces si ces portefeuilles impliquent des contreparties non cycliques. Deuxièmement, le risque systématique peut provenir de plusieurs sources ; le modèle actuel à un facteur empêche la répercussion propre des chocs « macro ».Nous proposons un stress test spécifique de crédit qui permet d’appréhender le risque spécifique de crédit d’un portefeuille concentré, et un stress test spécifique de liquidité qui permet de mesurer l’impact des chocs spécifiques de liquidité sur la solvabilité de la banque. Nous proposons aussi une généralisation multifactorielle de la fonction d’évaluation du capital réglementaire en IRB, qui permet d’appliquer les chocs des macro-stress tests sur chaque portefeuille sectoriel, en stressant de façon claire, précise et transparente les facteurs de risque systématique l’impactant. Cette méthodologie permet une répercussion propre de ces chocs sur la probabilité de défaut conditionnelle des contreparties de ces portefeuilles et donc une meilleure évaluation de la charge en capital de la banque. / Our thesis consists in explaining, by bringing some theoretical elements, the imperfections of EBA / BCE macro-prudential stress tests, and proposing a new methodology of their application as well as two specific stress tests in addition. We show that macro-prudential stress tests may be irrelevant when the two basic assumptions of the Gordy-Vasicek core model used to assess banks regulatory capital in internal methods (IRB) in the context of credit risk (asymptotically granular credit portfolio and presence of a single source of systematic risk which is the macroeconomic conjuncture), are not respected. Firstly, they exist concentrated portfolios for which macro-stress tests are not sufficient to measure potential losses or even ineffective in the case where these portfolios involve non-cyclical counterparties. Secondly, systematic risk can come from several sources; the actual one-factor model doesn’t allow a proper repercussion of the “macro” shocks. We propose a specific credit stress test which makes possible to apprehend the specific credit risk of a concentrated portfolio, as well as a specific liquidity stress test which makes possible to measure the impact of liquidity shocks on the bank’s solvency. We also propose a multifactorial generalization of the regulatory capital valuation model in IRB, which allows applying macro-stress tests shocks on each sectorial portfolio, stressing in a clear, precise and transparent way the systematic risk factors impacting it. This methodology allows a proper impact of these shocks on the conditional probability of default of the counterparties of these portfolios and therefore a better evaluation of the capital charge of the bank.
105

Étude du rôle de Pax6 dans la gliogenèse

Cannizzaro, Enrica 08 1900 (has links)
Les astrocytes sont des cellules gliales présentes dans le système nerveux central, qui exercent de nombreuses fonctions physiologiques essentielles et sont impliquées dans la réponse aux lésions et dans plusieurs pathologies du cerveau. Les astrocytes sont générés par les cellules de la glie radiale, les précurseurs communs de la plupart des cellules neuronales et gliales du cerveau, après le début de la production des neurones. Le passage de la neurogenèse à la gliogenèse est le résultat de mécanismes moléculaires complexes induits par des signaux intrinsèques et extrinsèques responsables du changement de propriété des précurseurs et de leur spécification. Le gène Pax6 code pour un facteur de transcription hautement conservé, impliqué dans plusieurs aspects du développement du système nerveux central, tels que la régionalisation et la neurogenèse. Il est exprimé à partir des stades les plus précoces dans les cellules neuroépithéliales (les cellules souches neurales) et dans la glie radiale, dérivant de la différenciation de ces cellules. L’objectif de cette étude est d’analyser le rôle de Pax6 dans la différenciation et dans le développement des astrocytes. À travers l’utilisation d’un modèle murin mutant nul pour Pax6, nous avons obtenu des résultats suggérant que la suppression de ce gène cause l'augmentation de la prolifération et de la capacité d'auto-renouvellement des cellules souches neurales embryonnaires. In vitro, les cellules mutantes prolifèrent de façon aberrante et sous-expriment les gènes p57Kip2, p16Ink4a, p19Arf et p21Cip1, qui inhibent la progression du le cycle cellulaire. De plus, Pax6 promeut la différenciation astrocytaire des cellules souches neurales embryonnaires et est requis pour la différenciation des astrocytes dans la moëlle épinière. Les mutants nuls pour Pax6 meurent après la naissance à cause de graves défauts développementaux dus aux fonctions essentielles de ce gène dans le développement embryonnaire de plusieurs organes. En utilisant un modèle murin conditionnel basé sur le système CRE/ loxP (hGFAP-CRE/ Pax6flox/flox) qui présente l’inactivation de Pax6 dans les cellules de la glie radiale, viable après la naissance, nous avons montré que Pax6 est impliqué dans la maturation et dans le développement post-natal des astrocytes. Le cortex cérébral des souris mutantes conditionnelles ne présente pas d’astrocytes matures à l’âge de 16 jours et une très faible quantité d’astrocytes immatures à l’âge de trois mois, suggérant que Pax6 promeut la différenciation et la maturation des astrocytes. De plus, Pax6 semble jouer un rôle même dans le processus de différenciation et de maturation de cellules gliales rétiniennes. L’étude des gènes et des mécanismes moléculaires impliqués dans la génération des astrocytes est crucial pour mieux comprendre le rôle physiologique et les altérations pathologiques des ces cellules. / Astrocytes, a subtype of glial cells present in the central nervous system, have multiple physiological functions and are involved in the response to lesions and in several brain pathologies. Astrocytes are generated by radial glia cells, the common precursors of most neural and glial cells of the brain, after the beginning of neurons production. The transition from neurogenesis to gliogenesis is the result of complex molecular mechanisms induced by both intrinsic and extrinsic signals responsible for the change of precursors properties and commitment. The Pax6 gene encodes a highly conserved transcription factor, involved in several aspects of central nervous system development, such as regionalization and neurogenesis. It is expressed from the earliest stages in the neuroepithelial cells (neural stem cells) and in their more differentiated radial glia progeny. The aim of this study was to analyze the role of Pax6 in the differentiation and development of astrocytes. By using a Pax6 null mutant mouse, we obtained results suggesting that the suppression of this gene increases the proliferation and the self-renewal ability of embryonic neural stem cells. In vitro mutant cells overproliferate and overexpress p57Kip2, p16Ink4a, p19Arf et p21Cip1 genes, which inhibit the cell cycle progression. Moreover Pax6 promotes astrocytic differentiation of embryonic neural stem cells and is required for astrocyte differentiation in spinal cord. Pax6 null mutants die after birth because of severe developmental defects, due to the essential functions of this gene in embryonic development of several organs. Using a conditional mutant mouse of Pax6 in radial glia (hGFAP-CRE/ Pax6flox/flox, based on site-specific Cre/loxP-mediated gene excision), which is viable after birth, we obtained evidences showing that Pax6 is involved in astrocyte maturation and postnatal development. The cerebral cortex of sixteen-day-old conditional mutant mice doesn’t present mature astrocytes, and the three-month-old mice cortex presents only few immature astrocytes, suggesting that Pax6 promotes astrocyte differentiation and maturation. Moreover Pax6 seems to play a role also in the maturation and differentiation of retinal glial cells. The identification of genes and molecular pathways involved in the generation of astrocytes is crucial to better understand the physiological function and pathological alterations of these cells.
106

Sur les tests de type diagnostic dans la validation des hypothèses de bruit blanc et de non corrélation

Sango, Joel 09 1900 (has links)
Dans la modélisation statistique, nous sommes le plus souvent amené à supposer que le phénomène étudié est généré par une structure pouvant s’ajuster aux données observées. Cette structure fait apparaître une partie principale qui représente le mieux possible le phénomène étudié et qui devrait expliquer les données et une partie supposée négligeable appelée erreur ou innovation. Cette structure complexe est communément appelée un modèle, dont la forme peut être plus ou moins complexe. Afin de simplifier la structure, il est souvent supposé qu’elle repose sur un nombre fini de valeurs, appelées paramètres. Basé sur les données, ces paramètres sont estimés avec ce que l’on appelle des estimateurs. La qualité du modèle pour les données à notre disposition est également fonction des estimateurs et de leurs propriétés, par exemple, est-ce que les estimateurs sont raisonnablement proches des valeurs idéales, c’est-à-dire les vraies valeurs. Des questions d’importance portent sur la qualité de l’ajustement d’un modèle aux données, ce qui se fait par l’étude des propriétés probabilistes et statistiques du terme d’erreur. Aussi, l’étude des relations ou l’absence de ces dernières entre les phénomènes sous des hypothèses complexes sont aussi d’intérêt. Des approches possibles pour cerner ce genre de questions consistent dans l’utilisation des tests portemanteaux, dits également tests de diagnostic. La thèse est présentée sous forme de trois projets. Le premier projet est rédigé en langue anglaise. Il s’agit en fait d’un article actuellement soumis dans une revue avec comité de lecture. Dans ce projet, nous étudions le modèle vectoriel à erreurs multiplicatives (vMEM) pour lequel nous utilisons les propriétés des estimateurs des paramètres du modèle selon la méthode des moments généralisés (GMM) afin d’établir la distribution asymptotique des autocovariances résiduelles. Ceci nous permet de proposer des nouveaux tests diagnostiques pour ce type de modèle. Sous l’hypothèse nulle d’adéquation du modèle, nous montrons que la statistique usuelle de Hosking-Ljung-Box converge vers une somme pondérée de lois de khi-carré indépendantes à un degré de liberté. Un test généralisé de Hosking-Ljung-Box est aussi obtenu en comparant la densité spectrale des résidus de l’estimation et celle présumée sous l’hypothèse nulle. Un avantage des tests spectraux est qu’ils nécessitent des estimateurs qui convergent à la vitesse n−1/2 où n est la taille de l’échantillon, et leur utilisation n’est pas restreinte à une technique particulière, comme par exemple la méthode des moments généralisés. Dans le deuxième projet, nous établissons la distribution asymptotique sous l’hypothèse de faible dépendance des covariances croisées de deux processus stationnaires en covariance. La faible dépendance ici est définie en terme de l’effet limité d’une observation donnée sur les observations futures. Nous utilisons la notion de stabilité et le concept de contraction géométrique des moments. Ces conditions sont plus générales que celles de l’invariance des moments conditionnels d’ordre un à quatre utilisée jusque là par plusieurs auteurs. Un test statistique basé sur les covariances croisées et la matrice des variances et covariances de leur distribution asymptotique est alors proposé et sa distribution asymptotique établie. Dans l’implémentation du test, la matrice des variances et covariances des covariances croisées est estimée à l’aide d’une procédure autorégressive vectorielle robuste à l’autocorrélation et à l’hétéroscédasticité. Des simulations sont ensuite effectuées pour étudier les propriétés du test proposé. Dans le troisième projet, nous considérons un modèle périodique multivarié et cointégré. La présence de cointégration entraîne l’existence de combinaisons linéaires périodiquement stationnaires des composantes du processus étudié. Le nombre de ces combinaisons linéaires linéairement indépendantes est appelé rang de cointégration. Une méthode d’estimation en deux étapes est considérée. La première méthode est appelée estimation de plein rang. Dans cette approche, le rang de cointégration est ignoré. La seconde méthode est appelée estimation de rang réduit. Elle tient compte du rang de cointégration. Cette dernière est une approche non linéaire basée sur des itérations dont la valeur initiale est l’estimateur de plein rang. Les propriétés asymptotiques de ces estimateurs sont aussi établies. Afin de vérifier l’adéquation du modèle, des statistiques de test de type portemanteau sont considérées et leurs distributions asymptotiques sont étudiées. Des simulations sont par la suite présentées afin d’illustrer le comportement du test proposé. / In statistical modeling, we assume that the phenomenon of interest is generated by a model that can be fitted to the observed data. The part of the phenomenon not explained by the model is called error or innovation. There are two parts in the model. The main part is supposed to explain the observed data, while the unexplained part which is supposed to be negligible is also called error or innovation. In order to simplify the structures, the model are often assumed to rely on a finite set of parameters. The quality of a model depends also on the parameter estimators and their properties. For example, are the estimators relatively close to the true parameters ? Some questions also address the goodness-of-fit of the model to the observed data. This question is answered by studying the statistical and probabilistic properties of the innovations. On the other hand, it is also of interest to evaluate the presence or the absence of relationships between the observed data. Portmanteau or diagnostic type tests are useful to address such issue. The thesis is presented in the form of three projects. The first project is written in English as a scientific paper. It was recently submitted for publication. In that project, we study the class of vector multiplicative error models (vMEM). We use the properties of the Generalized Method of Moments to derive the asymptotic distribution of sample autocovariance function. This allows us to propose a new test statistic. Under the null hypothesis of adequacy, the asymptotic distributions of the popular Hosking-Ljung-Box (HLB) test statistics are found to converge in distribution to weighted sums of independent chi-squared random variables. A generalized HLB test statistic is motivated by comparing a vector spectral density estimator of the residuals with the spectral density calculated under the null hypothesis. In the second project, we derive the asymptotic distribution under weak dependence of cross covariances of covariance stationary processes. The weak dependence is defined in term of the limited effect of a given information on future observations. This recalls the notion of stability and geometric moment contraction. These conditions of weak dependence defined here are more general than the invariance of conditional moments used by many authors. A test statistic based on cross covariances is proposed and its asymptotic distribution is established. In the elaboration of the test statistics, the covariance matrix of the cross covariances is obtained from a vector autoregressive procedure robust to autocorrelation and heteroskedasticity. Simulations are also carried on to study the properties of the proposed test and also to compare it to existing tests. In the third project, we consider a cointegrated periodic model. Periodic models are present in the domain of meteorology, hydrology and economics. When modelling many processes, it can happen that the processes are just driven by a common trend. This situation leads to spurious regressions when the series are integrated but have some linear combinations that are stationary. This is called cointegration. The number of stationary linear combinations that are linearly independent is called cointegration rank. So, to model the real relationship between the processes, it is necessary to take into account the cointegration rank. In the presence of periodic time series, it is called periodic cointegration. It occurs when time series are periodically integrated but have some linear combinations that are periodically stationary. A two step estimation method is considered. The first step is the full rank estimation method that ignores the cointegration rank. It provides initial estimators to the second step estimation which is the reduced rank estimation. It is non linear and iterative. Asymptotic properties of the estimators are also established. In order to check for model adequacy, portmanteau type tests and their asymptotic distributions are also derived and their asymptotic distribution are studied. Simulation results are also presented to show the behaviour of the proposed test.
107

Wavelet analysis of financial time series / Analyse en ondelettes des séries temporelles financières

Khalfaoui, Rabeh 23 October 2012 (has links)
Cette thèse traite la contribution des méthodes d'ondelettes sur la modélisation des séries temporelles économiques et financières et se compose de deux parties: une partie univariée et une partie multivariée. Dans la première partie (chapitres 2 et 3), nous adoptons le cas univarié. Premièrement, nous examinons la classe des processus longue mémoire non-stationnaires. Une étude de simulation a été effectuée afin de comparer la performance de certaines méthodes d'estimation semi-paramétrique du paramètre d'intégration fractionnaire. Nous examinons aussi la mémoire longue dans la volatilité en utilisant des modèles FIGARCH pour les données de l'énergie. Les résultats montrent que la méthode d'estimation Exact Local Whittle de Shimotsu et Phillips [2005] est la meilleure méthode de détection de longue mémoire et la volatilité du pétrole exhibe une forte évidence de phénomène de mémoire longue. Ensuite, nous analysons le risque de marché des séries de rendements univariées de marchés boursier, qui est mesurée par le risque systématique (bêta) à différents horizons temporels. Les résultats montrent que le Bêta n'est pas stable, en raison de multi-trading stratégies des investisseurs. Les résultats basés sur l'analyse montrent que le risque mesuré par la VaR est plus concentrée aux plus hautes fréquences. La deuxième partie (chapitres 4 et 5) traite l'estimation de la variance et la corrélation conditionnelle des séries temporelles multivariées. Nous considérons deux classes de séries temporelles: les séries temporelles stationnaires (rendements) et les séries temporelles non-stationnaires (séries en niveaux). / This thesis deals with the contribution of wavelet methods on modeling economic and financial time series and consists of two parts: the univariate time series and multivariate time series. In the first part (chapters 2 and 3), we adopt univariate case. First, we examine the class of non-stationary long memory processes. A simulation study is carried out in order to compare the performance of some semi-parametric estimation methods for fractional differencing parameter. We also examine the long memory in volatility using FIGARCH models to model energy data. Results show that the Exact local Whittle estimation method of Shimotsu and Phillips [2005] is the better one and the oil volatility exhibit strong evidence of long memory. Next, we analyze the market risk of univariate stock market returns which is measured by systematic risk (beta) at different time horizons. Results show that beta is not stable, due to multi-trading strategies of investors. Results based on VaR analysis show that risk is more concentrated at higher frequency. The second part (chapters 4 and 5) deals with estimation of the conditional variance and correlation of multivariate time series. We consider two classes of time series: the stationary time series (returns) and the non-stationary time series (levels). We develop a novel approach, which combines wavelet multi-resolution analysis and multivariate GARCH models, i.e. the wavelet-based multivariate GARCH approach. However, to evaluate the volatility forecasts we compare the performance of several multivariate models using some criteria, such as loss functions, VaR estimation and hedging strategies.
108

Étude de peacocks sous l'hypothèse de monotonie conditionnelle et de positivité totale / A study of Peacocks under the assumptions of conditional monotonicity and total positivity

Bogso, Antoine Marie 23 October 2012 (has links)
Cette thèse porte sur les processus croissants pour l'ordre convexe que nous désignons sous le nom de peacocks. Un résultat remarquable dû à Kellerer stipule qu'un processus stochastique à valeurs réelles est un peacock si et seulement s'il possède les mêmes marginales unidimensionnelles qu'une martingale. Une telle martingale est dite associée à ce processus. Mais dans son article, Kellerer ne donne ni d'exemple de peacock, ni d'idée précise sur la construction d'une martingale associée pour un peacock donné. Ainsi, comme d'autres travaux sur les peacocks, notre étude vise deux objectifs. Il s'agit d'exhiber de nouvelles familles de peacocks et de construire des martingales associées pour certains peacocks. Dans les trois premiers chapitres, nous exhibons diverses classes de peacocks en utilisant successivement les notions de monotonie conditionnelle, de peacock très fort et de positivité totale d'ordre 2. En particulier, nous fournissons plusieurs extensions du résultat de Carr-Ewald-Xiao selon lequel la moyenne arithmétique du mouvement brownien géométrique, encore appelée "option asiatique" est un peacock. L'objet du dernier chapitre est de construire des martingales associées pour une classe de peacocks. Pour cela, nous utilisons les plongements d'Azéma-Yor et de Bertoin-Le Jan. L'originalité de ce chapitre est l'utilisation de la positivité totale d'ordre 2 dans l'étude du plongement d'Azéma-Yor / This thesis deals with real valued stochastic processes which increase in the convex order. We call them peacocks. A remarkable result due to Kellerer states that a real valued process is a peacock if and only if it has the same one-dimensional marginals as a martingale. Such a martingale is said to be associated to this process. But in his article, Kellerer provides neither an example of peacock nor a concrete idea to construct an associated martingale to a given peacock. Hence, as other investigations on peacocks, our study has two purposes. We first exhibit new families of peacocks and then, we contruct associated martingales to certain of them. In the first three chapters, we exhibit several classes of peacocks using successively the notions of conditional monotonicity, very strong peacock and total positivity of order 2. In particular, we provide many extensions of Carr-Ewald-Xiao result which states that the arithmetic mean of geometric Brownian motion, also called "Asian option" is a peacock. The purpose of the last chapter is to construct associated martingales to certain peacocks. To this end, we use Azéma-Yor and Bertoin-Le Jan embedding algorithms. The originality of this chapter is the use of total positivity of order 2 in the study of Azéma-Yor embedding algorithm
109

Risques extrêmes en finance : analyse et modélisation / Financial extreme risks : analysis and modeling

Salhi, Khaled 05 December 2016 (has links)
Cette thèse étudie la gestion et la couverture du risque en s’appuyant sur la Value-at-Risk (VaR) et la Value-at-Risk Conditionnelle (CVaR), comme mesures de risque. La première partie propose un modèle d’évolution de prix que nous confrontons à des données réelles issues de la bourse de Paris (Euronext PARIS). Notre modèle prend en compte les probabilités d’occurrence des pertes extrêmes et les changements de régimes observés sur les données. Notre approche consiste à détecter les différentes périodes de chaque régime par la construction d’une chaîne de Markov cachée et à estimer la queue de distribution de chaque régime par des lois puissances. Nous montrons empiriquement que ces dernières sont plus adaptées que les lois normales et les lois stables. L’estimation de la VaR est validée par plusieurs backtests et comparée aux résultats d’autres modèles classiques sur une base de 56 actifs boursiers. Dans la deuxième partie, nous supposons que les prix boursiers sont modélisés par des exponentielles de processus de Lévy. Dans un premier temps, nous développons une méthode numérique pour le calcul de la VaR et la CVaR cumulatives. Ce problème est résolu en utilisant la formalisation de Rockafellar et Uryasev, que nous évaluons numériquement par inversion de Fourier. Dans un deuxième temps, nous nous intéressons à la minimisation du risque de couverture des options européennes, sous une contrainte budgétaire sur le capital initial. En mesurant ce risque par la CVaR, nous établissons une équivalence entre ce problème et un problème de type Neyman-Pearson, pour lequel nous proposons une approximation numérique s’appuyant sur la relaxation de la contrainte / This thesis studies the risk management and hedging, based on the Value-at-Risk (VaR) and the Conditional Value-at-Risk (CVaR) as risk measures. The first part offers a stocks return model that we test in real data from NSYE Euronext. Our model takes into account the probability of occurrence of extreme losses and the regime switching observed in the data. Our approach is to detect the different periods of each regime by constructing a hidden Markov chain and estimate the tail of each regime distribution by power laws. We empirically show that powers laws are more suitable than Gaussian law and stable laws. The estimated VaR is validated by several backtests and compared to other conventional models results on a basis of 56 stock market assets. In the second part, we assume that stock prices are modeled by exponentials of a Lévy process. First, we develop a numerical method to compute the cumulative VaR and CVaR. This problem is solved by using the formalization of Rockafellar and Uryasev, which we numerically evaluate by Fourier inversion techniques. Secondly, we are interested in minimizing the hedging risk of European options under a budget constraint on the initial capital. By measuring this risk by CVaR, we establish an equivalence between this problem and a problem of Neyman-Pearson type, for which we propose a numerical approximation based on the constraint relaxation
110

Essai d'une théorie générale des aménagements de peine / Towards a general theory of sentence adjustments

Carpentier, Yan 02 December 2016 (has links)
Les aménagements de peine sont devenus le fer de lance d’une politique pénale de lutte contre la récidivefondée sur l’insertion ou la réinsertion des condamnés. Le nombre de mesures qualifiées comme desaménagements de peine n’a jamais cessé de croître au fil du XXe siècle. Pourtant, au fur et à mesure ques’amoncelaient les réformes éparses, aucune réflexion d’ensemble relative aux aménagements de peine n’a eu lieu.Ainsi, la notion d’aménagement de peine n’a jamais été construite alors que la France est sûrement le payseuropéen qui recourt le plus à ces mesures. La France apparaît alors comme le pays le plus fertile en matièred’aménagement de peine avec une variété de mécanismes importante. Cette variété rend nécessaire une théoriegénérale des aménagements de peine dans la mesure où le sens technique de cette notion demeure obscur.Une théorie générale semble le moyen le plus sûr pour tenter de déceler une cohérence parmi les diversesmesures. En ce sens, il ne peut y avoir de théorie générale s’il est impossible d’identifier abstraitement ce qu’estune mesure d’aménagement de peine. En effet, le désordre normatif a effacé les frontières entre les modalitésd’exécution de la peine, les aménagements de peine et les mesures de sûreté. Aussi, le cadre d’une théorie généralepermet de construire la notion même d’aménagement de peine. En outre, la construction d’une notion unitaire doitpermettre d’apprécier la technique unitaire de ces mesures. Ce faisant, la théorie générale restaure une certainelisibilité du droit et met en lumière toute la cohérence d’un système tendant à responsabiliser le condamné. / Sentence adjustment spearheads a new criminal policy of fight against recidivism based on integration orrehabilitation of convicted people. The number of measures qualified as sentence adjustment increased throughoutthe XXe century. However, as scattered reforms kept accumulating, no overall study regarding sentence adjustmenthas taken place. As a result, even though France is surely the European country that uses them the most, the conceptof sentence adjustment has never been constructed. France indeed seems to be the most fertile country regardingsentence adjustment, creating many different mechanisms. Since the technical sense of the notion of sentenceadjustment remains blurry, a general theory of sentence adjustment is necessary.A general theory seems to be the surest way to try to find a coherence among those various measures. Butthere cannot be a general theory if it is not possible to identify abstractly what is a sentence adjustment. Nowadaysthe normative disorder blurred the lines between enforcement of a sentence, sentence adjustment and preventivedetention. Therefore, a general theory would help build the concept of sentence adjustment itself. Besides, theconstruction of a concept would make it easier to assess the one technique behind all those mechanisms. By doingso, the general theory of sentence adjustment would restore some clarity to the law and give all of its consistencyto a system tending to give a sense of responsibility to the convicted.

Page generated in 0.1175 seconds