• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 3
  • Tagged with
  • 18
  • 18
  • 13
  • 11
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Inégalités de concentration pour des fonctions de variables aléatoires indépendantes / Concentration inequalities for functions of independent random variables

Marchina, Antoine 08 December 2017 (has links)
Cette thèse porte sur l'étude de la concentration autour de la moyenne de fonctions de variables aléatoires indépendantes à l'aide de techniques de martingales et d'inégalités de comparaison.Dans une première partie, nous prouvons des inégalités de comparaison pour des fonctions générales séparément convexes de variables aléatoires indépendantes non nécessairement bornées. Ces résultats sont établis à partir de nouvelles inégalités de comparaison dans des classes de fonctions convexes (contenant, en particulier, les fonctions exponentielles croissantes) pour des variables aléatoires réelles uniquement dominées stochastiquement.Dans la seconde partie, nous nous intéressons aux suprema de processus empiriques associés à des observations i.i.d. Le point clé de cette partie est un résultat d'échangeabilité des variables. Nous montrons d'abord des inégalités de type Fuk-Nagaev avec constantes explicites lorsque les fonctions de la classe ne sont pas bornées. Ensuite, nous prouvons de nouvelles inégalités de déviation avec une meilleure fonction de taux dans les bandes de grandes déviations dans le cas des classes de fonctions uniformément bornées. Nous donnons également des inégalités de comparaison de moments généralisés dans les cas uniformément borné et uniformément majoré. Enfin, les résultats de la première partie nous permettent d'obtenir une inégalité de concentration lorsque les fonctions de la classe ont une variance infinie. / This thesis deals with concentration properties around the mean of functions of independent random variables using martingale techniques and comparison inequalities.In the first part, we prove comparison inequalities for general separately convex functions of independent and non necessarily bounded random variables. These results are based on new comparison inequalities in convex classes of functions (including, in particular, the increasing exponential functions) for real-valued random variables which are only stochastically dominated.In the second part, we are interested in suprema of empirical processes associated to i.i.d. random variables. The key point of this part is a result of exchangeability of variables. We first give Fuk-Nagaev type inequalities with explicit constants when the functions of the considered class are unbounded. Next, we provide new deviation inequalities with an improved rate function in the large deviations bandwidth in the case of classes of uniformly bounded functions. We also provide generalized moment comparison inequalities in uniformly bounded and uniformly bounded from above cases. Finally, results from the first part allow us to prove a concentration inequality when the functions of the class have an infinite variance.
12

Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergences

Kabui, Ali 19 September 2012 (has links) (PDF)
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR.
13

Sur l'estimation non paramétrique de la fonction d'égalisation équipercentile. Application à la qualité de vie.

El Fassi, Kaouthar 03 June 2009 (has links) (PDF)
Soient $X$ et $Y$ deux variables aléatoires de fonctions de répartition $F$ et $G$ respectivement. Deux réalisations données $x$ et $y$ sont dites équivalentes si et seulement si $F(x)=G(y)$. Cette équation est connue sous le nom ``équation équipercentile''. Sa résolution, pour un $x$ fixé, permet d'exprimer l'équivalent équipercentile de $x$ comme suit: $y(x)=G^{-1}(F(x))$, où $G^{-1}$ désigne la fonction inverse de $G$. Dans ce travail, nous proposons cinq scénarios d'estimation de la fonction d'égalisation équipercentile $G^{-1}(F(x))$. Les estimateurs proposés reposent sur l'approche de l'ajustement polynômial local. Les résultats obtenus sont les suivants. D'abord, nous montrons la convergence uniforme presque sûre des estimateurs. Ensuite, nous établissons l'approximation par un pont brownien approprié et évaluons la performance des estimateurs en utilisant l'erreur en moyenne quadratique comme mesure de perte. Finalement, nous proposons quelques simulations sous R pour illustrer nos résultats et comparons les estimateurs en les appliquant sur un jeu de données réelles provenant d'une étude longitudinale multi-centrique de la cohorte ANRS C08.
14

Estimation non-paramétrique et convergence faible des mesures de pauvreté

Seck, Cheikh Tidiane 23 March 2011 (has links) (PDF)
Cette thèse introduit tout d'abord une formule générale qui englobe toutes les mesures de pauvreté uni-dimensionnelles basées sur le revenu. Nous proposons ensuite deux types d'estimateurs non-paramétriques (à noyau et de type "plug-in") pour cet indice général de pauvreté, tout en étudiant leurs propriétés asymptotiques. Notre méthodologie, basée essentiellement sur la théorie moderne du processus empirique indexé des fonctions, offre un cadre global et rigoureux qui permet d'étudier, avec la même approche, le comportement asymptotique de tous les indices de pauvreté encore disponibles jusqu'ici dans la littérature. Nous obtenons la consistance forte uniforme d'une très large classe de mesures de pauvreté incluant presque tous les modèles d'indices proposés par les économistes, décomposables comme non-décomposables. Ce résultat est utilisé pour construire des intervalles de confiance simultanés, de niveau asymptotiquement optimal (100%). Un théorème central limite uniforme fonctionnel est également établi pour cette large classe d'indicateurs de pauvreté. Comme conséquence, des procédures d'inférence robustes, basées sur le noyau de covariance et utilisant un test de Wald, sont développées afin de comparer de façon non-ambiguë la pauvreté entre deux populations différentes.
15

Contribution to the weak convergence of empirical copula process : contribution to the stochastic claims reserving in general insurance / Contribution à la convergence faible de processus empirique des copules : contribution au provisionnement stochastique dans une compagnie d'assurance

Sloma, Przemyslaw 30 September 2014 (has links)
Dans la première partie de la thèse, nous nous intéressons à la convergence faible du processus empirique pondéré des copules. Nous fournissons la condition suffisante pour que cette convergence ait lieu vers un processus Gaussien limite. Nos résultats sont obtenus dans un espace de Banach L^p. Nous donnons des applications statistiques de ces résultats aux tests d'adéquation (tests of goodness of fit) pour les copules. Une attention spéciale est portée aux tests basées sur des statistiques de type Cramér-von Mises.Dans un second temps, nous étudions le problème de provisionnement stochastique pour une compagnie d'assurance non-vie. Les méthodes stochastiques sont utilisées afin d'évaluer la variabilité des réserves. Le point de départ pour cette thèse est une incohérence entre les méthodes utilisées en pratique et celles publiées dans la littérature. Pour remédier à cela, nous présentons un outil général de provisionnement stochastique à horizon ultime (Chapitre 3) et à un an (Chapitre 4), basé sur la méthode Chain Ladder. / The aim of this thesis is twofold. First, we concentrate on the study of weak convergence of weighted empirical copula processes. We provide sufficient conditions for this convergence to hold to a limiting Gaussian process. Our results are obtained in the framework of convergence in the Banach space $L^{p}$ ($1\leq p <\infty $). Statistical applications to goodness of fit (GOF) tests for copulas are given to illustrate these results. We pay special attention to GOF tests based on Cramér-von Mises type statistics. Second, we discuss the problem of stochastic claims reserving in general non-life insurance. Stochastic models are needed in order to assess the variability of the claims reserve. The starting point of this thesis is an observed inconsistency between the approaches used in practice and that suggested in the literature. To fill this gap, we present a general tool for measuring the uncertainty of reserves in the framework of ultimate (Chapter 3) and one-year time horizon (Chapter 4), based on the Chain-Ladder method.
16

PERFORMANCES STATISTIQUES D'ALGORITHMES D'APPRENTISSAGE : ``KERNEL PROJECTION<br /> MACHINE'' ET ANALYSE EN COMPOSANTES PRINCIPALES A NOYAU.

Zwald, Laurent 23 November 2005 (has links) (PDF)
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte<br />des contributions à la communauté du machine learning en utilisant des<br />techniques de statistiques modernes basées sur des avancées dans l'étude<br />des processus empiriques. Dans une première partie, les propriétés statistiques de<br />l'analyse en composantes principales à noyau (KPCA) sont explorées. Le<br />comportement de l'erreur de reconstruction est étudié avec un point de vue<br />non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de<br />Gram sont données. Tous ces résultats impliquent des vitesses de<br />convergence rapides. Des propriétés <br />non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également<br />proposées. Dans une deuxième partie, un nouvel <br />algorithme de classification a été<br />conçu : la Kernel Projection Machine (KPM). <br />Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de<br />réduction de la dimension telle que la KPCA régularise <br />convenablement. Le choix de l'espace vectoriel utilisé par la KPM est guidé par des études statistiques de sélection de modéle par minimisation pénalisée de la perte empirique. Ce<br />principe de régularisation est étroitement relié à la projection fini-dimensionnelle étudiée dans les travaux statistiques de <br />Birgé et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème abordé dans cette thèse soulève de nouvelles questions d'ordre théorique et pratique.
17

Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergences / Value at risk and expected shortfall for weak dependent random variables : nonparametric estimations and limit theorems

Kabui, Ali 19 September 2012 (has links)
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR. / To quantify and measure the risk in an environment partially or completely uncertain is probably one of the major issues of the applied research in financial mathematics. That relates to the economy, finance, but many other fields like health via the insurances for example. One of the fundamental difficulties of this process of management of risks is to model the under lying credits, then approach the risk from observations or simulations. As in this field, the risk or uncertainty plays a fundamental role in the evolution of the credits; the recourse to the stochastic processes and with the statistical methods becomes crucial. In practice the parametric approach is largely used.It consists in choosing the model in a parametric family, to quantify the risk according to the parameters, and to estimate its risk by replacing the parameters by their estimates. This approach presents a main risk, that badly to specify the model, and thus to underestimate or over-estimate the risk. Based within and with a view to minimizing the risk model, we choose to tackle the question of the quantification of the risk with a nonparametric approach which applies to models as general as possible. We concentrate to two measures of risk largely used in practice and which are sometimes imposed by the national or international regulations. They are the Value at Risk (VaR) which quantifies the maximum level of loss with a high degree of confidence (95% or 99%). The second measure is the Expected Shortfall (ES) which informs about the average loss beyond the VaR.
18

APPLICATIONS STATISTIQUES DE SUITES FAIBLEMENT DEPENDANTES ET DE SYSTEMES DYNAMIQUES

Prieur, Clementine 13 December 2001 (has links) (PDF)
Cette thèse porte sur l'étude<br />d'applications statistiques de suites dépendantes et<br />stationnaires. Nous étudions deux classes de suites<br />dépendantes. Nous nous intéressons d'une part à des suites<br />faiblement dépendantes, où notre notion de dépendance faible est<br />une variante de la notion introduite par Doukhan \& Louhichi, d'autre part à certains systèmes dynamiques<br />présentant une propriété de décroissance des<br />corrélations. Nous traitons du comportement asymptotique du<br />processus empirique, fondamental en statistiques. Nous étudions<br />aussi un estimateur à noyau de la densité dans nos deux cadres de<br />dépendance. Enfin, nous nous intéressons à un problème de<br />rupture d'une fonction de régression en dépendance faible. A ces<br />fins, nous développons des idées de Rio pour montrer un<br />théorème limite centrale en dépendance faible, ainsi que des<br />nouvelles inégalités de moments qui étendent celles de Louhichi. Enfin, nous illustrons certains de nos résultats par des<br />simulations.

Page generated in 0.09 seconds