• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 17
  • 7
  • Tagged with
  • 55
  • 55
  • 28
  • 18
  • 14
  • 13
  • 12
  • 12
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthodes d'inférence statistique pour champs de Gibbs / Statistical inference methods for Gibbs random fields

Stoehr, Julien 29 October 2015 (has links)
La constante de normalisation des champs de Markov se présente sous la forme d'une intégrale hautement multidimensionnelle et ne peut être calculée par des méthodes analytiques ou numériques standard. Cela constitue une difficulté majeure pour l'estimation des paramètres ou la sélection de modèle. Pour approcher la loi a posteriori des paramètres lorsque le champ de Markov est observé, nous remplaçons la vraisemblance par une vraisemblance composite, c'est à dire un produit de lois marginales ou conditionnelles du modèle, peu coûteuses à calculer. Nous proposons une correction de la vraisemblance composite basée sur une modification de la courbure au maximum afin de ne pas sous-estimer la variance de la loi a posteriori. Ensuite, nous proposons de choisir entre différents modèles de champs de Markov cachés avec des méthodes bayésiennes approchées (ABC, Approximate Bayesian Computation), qui comparent les données observées à de nombreuses simulations de Monte-Carlo au travers de statistiques résumées. Afin de pallier l'absence de statistiques exhaustives pour ce choix de modèle, des statistiques résumées basées sur les composantes connexes des graphes de dépendance des modèles en compétition sont introduites. Leur efficacité est étudiée à l'aide d'un taux d'erreur conditionnel original mesurant la puissance locale de ces statistiques à discriminer les modèles. Nous montrons alors que nous pouvons diminuer sensiblement le nombre de simulations requises tout en améliorant la qualité de décision, et utilisons cette erreur locale pour construire une procédure ABC qui adapte le vecteur de statistiques résumés aux données observées. Enfin, pour contourner le calcul impossible de la vraisemblance dans le critère BIC (Bayesian Information Criterion) de choix de modèle, nous étendons les approches champs moyens en substituant la vraisemblance par des produits de distributions de vecteurs aléatoires, à savoir des blocs du champ. Le critère BLIC (Block Likelihood Information Criterion), que nous en déduisons, permet de répondre à des questions de choix de modèle plus large que les méthodes ABC, en particulier le choix conjoint de la structure de dépendance et du nombre d'états latents. Nous étudions donc les performances de BLIC dans une optique de segmentation d'images. / Due to the Markovian dependence structure, the normalizing constant of Markov random fields cannot be computed with standard analytical or numerical methods. This forms a central issue in terms of parameter inference or model selection as the computation of the likelihood is an integral part of the procedure. When the Markov random field is directly observed, we propose to estimate the posterior distribution of model parameters by replacing the likelihood with a composite likelihood, that is a product of marginal or conditional distributions of the model easy to compute. Our first contribution is to correct the posterior distribution resulting from using a misspecified likelihood function by modifying the curvature at the mode in order to avoid overly precise posterior parameters.In a second part we suggest to perform model selection between hidden Markov random fields with approximate Bayesian computation (ABC) algorithms that compare the observed data and many Monte-Carlo simulations through summary statistics. To make up for the absence of sufficient statistics with regard to this model choice, we introduce summary statistics based on the connected components of the dependency graph of each model in competition. We assess their efficiency using a novel conditional misclassification rate that evaluates their local power to discriminate between models. We set up an efficient procedure that reduces the computational cost while improving the quality of decision and using this local error rate we build up an ABC procedure that adapts the summary statistics to the observed data.In a last part, in order to circumvent the computation of the intractable likelihood in the Bayesian Information Criterion (BIC), we extend the mean field approaches by replacing the likelihood with a product of distributions of random vectors, namely blocks of the lattice. On that basis, we derive BLIC (Block Likelihood Information Criterion) that answers model choice questions of a wider scope than ABC, such as the joint selection of the dependency structure and the number of latent states. We study the performances of BLIC in terms of image segmentation.
32

Bayesian multiple hypotheses testing with quadratic criterion / Test bayésien entre hypothèses multiples avec critère quadratique

Zhang, Jian 04 April 2014 (has links)
Le problème de détection et localisation d’anomalie peut être traité comme le problème du test entre des hypothèses multiples (THM) dans le cadre bayésien. Le test bayésien avec la fonction de perte 0−1 est une solution standard pour ce problème, mais les hypothèses alternatives pourraient avoir une importance tout à fait différente en pratique. La fonction de perte 0−1 ne reflète pas cette réalité tandis que la fonction de perte quadratique est plus appropriée. L’objectif de cette thèse est la conception d’un test bayésien avec la fonction de perte quadratique ainsi que son étude asymptotique. La construction de ce test est effectuée en deux étapes. Dans la première étape, un test bayésien avec la fonction de perte quadratique pour le problème du THM sans l’hypothèse de base est conçu et les bornes inférieures et supérieures des probabilités de classification erronée sont calculées. La deuxième étape construit un test bayésien pour le problème du THM avec l’hypothèse de base. Les bornes inférieures et supérieures des probabilités de fausse alarme, des probabilités de détection manquée, et des probabilités de classification erronée sont calculées. A partir de ces bornes, l’équivalence asymptotique entre le test proposé et le test standard avec la fonction de perte 0−1 est étudiée. Beaucoup d’expériences de simulation et une expérimentation acoustique ont illustré l’efficacité du nouveau test statistique / The anomaly detection and localization problem can be treated as a multiple hypotheses testing (MHT) problem in the Bayesian framework. The Bayesian test with the 0−1 loss function is a standard solution for this problem, but the alternative hypotheses have quite different importance in practice. The 0−1 loss function does not reflect this fact while the quadratic loss function is more appropriate. The objective of the thesis is the design of a Bayesian test with the quadratic loss function and its asymptotic study. The construction of the test is made in two steps. In the first step, a Bayesian test with the quadratic loss function for the MHT problem without the null hypothesis is designed and the lower and upper bounds of the misclassification probabilities are calculated. The second step constructs a Bayesian test for the MHT problem with the null hypothesis. The lower and upper bounds of the false alarm probabilities, the missed detection probabilities as well as the misclassification probabilities are calculated. From these bounds, the asymptotic equivalence between the proposed test and the standard one with the 0-1 loss function is studied. A lot of simulation and an acoustic experiment have illustrated the effectiveness of the new statistical test
33

Sélection de modèles parcimonieux pour l’apprentissage statistique en grande dimension / Model selection for sparse high-dimensional learning

Mattei, Pierre-Alexandre 26 October 2017 (has links)
Le déferlement numérique qui caractérise l’ère scientifique moderne a entraîné l’apparition de nouveaux types de données partageant une démesure commune : l’acquisition simultanée et rapide d’un très grand nombre de quantités observables. Qu’elles proviennent de puces ADN, de spectromètres de masse ou d’imagerie par résonance nucléaire, ces bases de données, qualifiées de données de grande dimension, sont désormais omniprésentes, tant dans le monde scientifique que technologique. Le traitement de ces données de grande dimension nécessite un renouvellement profond de l’arsenal statistique traditionnel, qui se trouve inadapté à ce nouveau cadre, notamment en raison du très grand nombre de variables impliquées. En effet, confrontée aux cas impliquant un plus grand nombre de variables que d’observations, une grande partie des techniques statistiques classiques est incapable de donner des résultats satisfaisants. Dans un premier temps, nous introduisons les problèmes statistiques inhérents aux modelés de données de grande dimension. Plusieurs solutions classiques sont détaillées et nous motivons le choix de l’approche empruntée au cours de cette thèse : le paradigme bayésien de sélection de modèles. Ce dernier fait ensuite l’objet d’une revue de littérature détaillée, en insistant sur plusieurs développements récents. Viennent ensuite trois chapitres de contributions nouvelles à la sélection de modèles en grande dimension. En premier lieu, nous présentons un nouvel algorithme pour la régression linéaire bayésienne parcimonieuse en grande dimension, dont les performances sont très bonnes, tant sur données réelles que simulées. Une nouvelle base de données de régression linéaire est également introduite : il s’agit de prédire la fréquentation du musée d’Orsay à l’aide de données vélibs. Ensuite, nous nous penchons sur le problème de la sélection de modelés pour l’analyse en composantes principales (ACP). En nous basant sur un résultat théorique nouveau, nous effectuons les premiers calculs exacts de vraisemblance marginale pour ce modelé. Cela nous permet de proposer deux nouveaux algorithmes pour l’ACP parcimonieuse, un premier, appelé GSPPCA, permettant d’effectuer de la sélection de variables, et un second, appelé NGPPCA, permettant d’estimer la dimension intrinsèque de données de grande dimension. Les performances empiriques de ces deux techniques sont extrêmement compétitives. Dans le cadre de données d’expression ADN notamment, l’approche de sélection de variables proposée permet de déceler sans supervision des ensembles de gènes particulièrement pertinents. / The numerical surge that characterizes the modern scientific era led to the rise of new kinds of data united in one common immoderation: the simultaneous acquisition of a large number of measurable quantities. Whether coming from DNA microarrays, mass spectrometers, or nuclear magnetic resonance, these data, usually called high-dimensional, are now ubiquitous in scientific and technological worlds. Processing these data calls for an important renewal of the traditional statistical toolset, unfit for such frameworks that involve a large number of variables. Indeed, when the number of variables exceeds the number of observations, most traditional statistics becomes inefficient. First, we give a brief overview of the statistical issues that arise with high-dimensional data. Several popular solutions are presented, and we present some arguments in favor of the method utilized and advocated in this thesis: Bayesian model uncertainty. This chosen framework is the subject of a detailed review that insists on several recent developments. After these surveys come three original contributions to high-dimensional model selection. A new algorithm for high-dimensional sparse regression called SpinyReg is presented. It compares favorably to state-of-the-art methods on both real and synthetic data sets. A new data set for high-dimensional regression is also described: it involves predicting the number of visitors in the Orsay museum in Paris using bike-sharing data. We focus next on model selection for high-dimensional principal component analysis (PCA). Using a new theoretical result, we derive the first closed-form expression of the marginal likelihood of a PCA model. This allows us to propose two algorithms for model selection in PCA. A first one called globally sparse probabilistic PCA (GSPPCA) that allows to perform scalable variable selection, and a second one called normal-gamma probabilistic PCA (NGPPCA) that estimates the intrinsic dimensionality of a high-dimensional data set. Both methods are competitive with other popular approaches. In particular, using unlabeled DNA microarray data, GSPPCA is able to select genes that are more biologically relevant than several popular approaches.
34

Approche hiérarchique bayésienne pour la prise en compte d’erreurs de mesure d’exposition chronique et à faible doses aux rayonnements ionisants dans l’estimation du risque de cancers radio-induits : Application à une cohorte de mineurs d’uranium / Bayesian Hierarchical Approach to Deal with Protracted Low-Dose Exposure Measurement Errors to Ionizing Radiations in Estimating the Risk of Radiation-Induced Cancers : Application to a Uranium Miners Cohort

Hoffmann, Sabine 12 December 2017 (has links)
En épidémiologie des rayonnements ionisants, les erreurs de mesure d’exposition et l’incertitude sur le calcul de la dose absorbée à l’organe constituent des sources d’incertitude importantes entrant en jeu dans la modélisation et l’estimation des relations dose-réponse d’intérêt. Celles-ci peuvent être de nature très complexes dans le cadre d’études de cohortes professionnelles et sont ainsi rarement prises en compte dans ce domaine. Pourtant, lorsque les erreurs de mesure d’exposition ne sont pas ou mal prises en compte, elles peuvent mener à des estimateurs de risque biaisés, à une perte de puissance statistique ainsi qu’à une déformation de ces relations dose-réponse. L’objectif de ce travail est de promouvoir l’utilisation de l’approche hiérarchique bayésienne pour la prise en compte explicite et simultanée des erreurs de mesure d’exposition et des incertitudes de dose intervenant dans les estimations de risques sanitaires radio-induits dans les études de cohortes professionnelles. Plus spécifiquement, des modèles hiérarchiques ont été proposés et inférés afin d’affiner l’estimation actuelle du risque de décès par cancer du poumon associé à une exposition chronique et à faibles doses au radon et ses descendants à vie courte à partir de données issues de la cohorte française des mineurs d’uranium. Ces modèles, connus pour leur souplesse et leur pertinence pour la prise en compte de sources d’incertitude multiples et complexes, sont basés sur une combinaison de sous-modèles probabilistes conditionnellement indépendants. Afin de quantifier l’impact de l’existence d’erreurs de mesure d’exposition partagées et non-partagées sur l’estimation du risque et sur la forme de la relation exposition-risque dans les études de cohortes professionnelles, une étude par simulations a été conduite dans laquelle différentes structures complexes mais réalistes d’erreurs de mesure (pouvant par ailleurs varier dans le temps) ont été considérées. Une élicitation de lois a priori reflétant l’incertitude relative au débit respiratoire - un paramètre important intervenant dans le calcul de la dose absorbée au poumon – a été conduite auprès de trois experts des conditions d’exposition dans les mines d’uranium française et des méthodes de combinaison de dires d’experts ont été mises en œuvre et comparées. Enfin, des algorithmes Monte-Carlo par Chaînes de Markov ont été implémentés sous Python pour mener l’inférence bayésiennes des différents modèles hiérarchiques proposés et ainsi, obtenir des estimations corrigées du risque de décès par cancer du poumon radio-induit dans la cohorte française des mineurs d’uranium. / In radiation epidemiology, exposure measurement error and uncertain input parameters in the calculation of absorbed organ doses are among the most important sources of uncertainty in the modelling of the health effects of ionising radiation. As the structures of exposure and dose uncertainty arising in occupational cohort studies may be complex, these uncertainty components are only rarely accounted for in this domain. However, when exposure measurement is not or only poorly accounted for, it may lead to biased risk estimates, a loss in statistical power and a distortion of the exposure-response relationship. The aim of this work was to promote the use of the Bayesian hierarchical approach to account for exposure and dose uncertainty in the estimation of the health effects associated with exposure to ionising radiation in occupational cohorts. More precisely, we proposed several hierarchical models and conducted Bayesian inference for these models in order to obtain corrected risk estimates on the association between exposure to radon and its decay products and lung cancer mortality in the French cohort of uranium miners. The hierarchical appraoch, which is based on the combination of sub-models that are linked via conditional independence assumptions, provides a flexible and coherent framework for the modelling of complex phenomena which may be prone to multiple sources of uncertainty. In order to compare the effects of shared and unshared exposure uncertainty on risk estimation and on the exposure-response relationship we conducted a simulation study in which we supposed complex and potentially time-varying error structures that are likely to arise in an occupational cohort study. We elicited informative prior distributions for average breathing rate, which is an important input parameter in the calculation of absorbed lung dose, based on the knowledge of three experts on the conditions in French uranium mines. In this context, we implemented and compared three approaches for the combination of expert opinion. Finally, Bayesian inference for the different hierarchical models was conducted via a Markov chain Monte Carlo algorithm implemented in Python to obtain corrected risk estimates on the lung cancer mortality in the French cohort of uranium miners associated with exposure to radon and its progeny.
35

Approche bayésienne de la construction d'intervalles de crédibilité simultanés à partir de courbes simulées

Lapointe, Marc-Élie 07 1900 (has links)
Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour. / This master's thesis addresses the problem of the simulation of simultaneous credible intervals in a Bayesian context. First, we will study precipation data and two functions based on these data : the empirical distribution function and the return period, a non-linear function of the empirical distribution. We will review different methods already known to obtain simultaneous confidence intervals of these functions with a polynomial basis and we will present a method to simulate simultaneous credible intervals. Second, we will explore some models of prior distributions and in the more complex one, we will need the Monte-Carlo method to simulate simultaneous posterior credible intervals. Finally, we will use a non-linear basis based on the angular transformation and on monotone splines to obtain valid simultaneous credible intervals for the return period.
36

Développement d’un modèle de classification probabiliste pour la cartographie du couvert nival dans les bassins versants d’Hydro-Québec à l’aide de données de micro-ondes passives

Teasdale, Mylène 09 1900 (has links)
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée. / Every day, decisions must be made about the amount of hydroelectricity produced in Quebec. These decisions are based on the prediction of water inflow in watersheds based on hydrological models. These models take into account several factors, including the presence or absence of snow. This information is critical during the spring melt to anticipate future flows, since between 30 and 40 % of the flood volume may come from the melting of the snow cover. It is therefore necessary for forecasters to be able to monitor on a daily basis the snow cover to adjust their expectations about the melting phenomenon. Some methods to map snow on the ground are currently used at the Institut de recherche d'Hydro-Québec (IREQ), but they have some shortcomings. This master thesis's main goal is to use remote sensing passive microwave data (the vertically polarized brightness temperature gradient ratio (GTV)) with a statistical approach to produce snow maps and to quantify the classification uncertainty. In order to do this, the GTV has been used to calculate a daily probability of snow via a Gaussian mixture model using Bayesian statistics. Subsequently, these probabilities were modeled using linear regression models on logits and snow cover maps were produced. The models results were validated qualitatively and quantitatively, and their integration at Hydro-Québec was discussed.
37

Développement d'une méthodologie d'assistance au commissionnement des bâtiments à faible consommation d'énergie / Development of a methodology to assist the commissioning of low energy buildings

Hannachi-Belkadi, Nazila Kahina 08 July 2008 (has links)
Les bâtiments à faible consommation d’énergie connaissent, ces dernières années, un grand intérêt étant donné le rôle important qu’ils jouent dans la diminution des émissions de gaz à effet de serre d’une part, et la flambée des prix des combustibles, d’autre part. Néanmoins, dans de nombreux cas la réalisation de ce type de bâtiments n’atteint pas les performances escomptées. Ce problème est dû en grande partie à : 1) la perte d’informations tout au long du cycle de vie du bâtiment, 2) la non évaluation régulière des décisions prises par les acteurs intervenants. Le commissionnement en tant que processus de contrôle qualité joue un rôle important dans le bon déroulement du processus de réalisation de bâtiments à faible consommation d’énergie. Cette recherche vise à développer une méthodologie dont l’objectif est d’assister les personnes responsables de cette mission dans la définition de plans de commissionnement adaptés à leurs projets. Nous avons réalisé en premier, un état de l’art de la réalisation des bâtiments à faible consommation d’énergie, que nous avons par la suite confronté à la réalité à travers une enquête auprès des acteurs du bâtiment et d’étude de cas réels. Cette étape nous a permis de formuler une hypothèse concernant la nécessité d’un commissionnement «évolutif» -adapté aux particularités de chaque projet - et de décrire une méthodologie globale d’assistance à la conception des bâtiments à faible consommation d’énergie, qui intègre une aide à la décision, une gestion de l’information et un commissionnement «évolutif» qui vient vérifier le bon déroulement des deux premiers. Pour mettre en application cette méthodologie, une boîte à outils a été développée. Elle est constituée de : 1) un outil dit «statique» qui permet de définir un premier plan de commissionnent générique qui répond aux caractéristiques d’un projet, à partir d’une base de données exhaustives de tâches de commissionnement, 2) un outil dit «dynamique» basé sur les probabilités, qui permet de mettre à jour le plan de commissionnement initial (générique), en l’adaptant au projet en cours. Cette mise à jour permet de prendre en compte les particularités et imprévus rencontrés lors de la réalisation d’un projet, rendant ainsi le plan de commissionnement plus précis. Une expérimentation, dans un cas réel, du premier outil et des applications du second ont été faites pour montrer leurs possibilités et leurs limites. Les résultats font apparaître deux points importants : 1) l’intérêt d’avoir un plan de commissionnement structuré et évolutif pour vérifier la qualité de la réalisation des bâtiments à faible consommation d’énergie et assurer ainsi l’atteinte des performances souhaitées, 2) l’intérêt d’utiliser un outil probabiliste tel que les réseaux Bayésiens pour anticiper les dérives et prendre en charge les imprévus rencontrés lors de ce processus vivant. Cette méthodologie représente une base pour le développement d’outils d’assistance à la définition de plans de commissionnement «évolutifs» pour le neuf et l’existant, et tous les secteurs du bâtiment / The low energy buildings know, these latest years, a great interest because of the important role that they play in reducing the greenhouse gas emissions on one hand, and the rise of the combustibles prices, on the other hand. Nevertheless, in many cases, low energy consumption buildings do not achieve the expected performances. This problem is largely due to: 1) the loss of information throughout the building life cycle, 2) the non-regular evaluation of the decisions made by the actors intervening in their conception. The commissioning, as a quality control process, plays an important role in the good progress of the realization process of low energy buildings case. This research aims to develop a methodology to assist the persons responsible of the commissioning in the definition of commissioning plans adapted to their projects. Firstly, we performed a state of art of the low energy consumption buildings realisation that we then confronted, to the reality through an investigation with building actors and a study of real cases. This step allowed us to formulate a hypothesis concerning the necessity of a "progressive" commissioning -adapted to project particularities - and to describe a global methodology of assistance to the low energy consumption buildings realisation that integrates a decision making aid, an information management and a "progressive" commissioning that verify the good realisation of the two first functions. To put this methodology into application, a toolbox was developed. It comprises: 1) a tool named "static" that allows defining a first generic commission plan that satisfies the project characteristics, based on an exhaustive data of commissioning tasks, 2) a tool named "dynamic" based on the probabilities, that allows updating the initial (generic) commissioning plan. This update manages the unexpected events met during the project realization; witch permits the commissioning plan to be more precise. An experimentation of the first tool was done in a real case and applications of the second were done to show their possibilities and their limits. The results show two important points: 1) the interest of having a structured and progressive commissioning plan to verify the quality of low energy consumption buildings realisation and guarantee the achievement of the expected performances, 2) the interest of using a probabilistic tool such as the Bayésien networks to anticipate the drifts and to deal with the unexpected events met throughout the building life cycle. This methodology represents a basis for the development of assistance tools for the definition of commissioning "progressive" plans for the new and the existing, and all the building sectors
38

Essays on the econometrics of inequality and poverty measurements / Essais à l'économétrie des mesures d'inégalité et de pauvreté

Ndoye, Abdoul Aziz Junior 02 July 2013 (has links)
Cette thèse est composée de quatre essais sur l'économétrie des mesures d'inégalité et de pauvreté. Elle fournit un traitement statistique fondé sur l'analyse de modèles probabilistes de mélange fini de distributions et de modèle de régression quantile, le tout dans une approche Bayésienne.Le deuxième chapitre s'intéresse à la modélisation d'une distribution de revenus par un mélange fini de lois log-normales dont les paramètres sont estimés par la méthode d'échantillonnage de Gibbs. Ce chapitre propose une méthode d'inférence statistique pour certains indices d'inégalité par une Rao-Blackwellisation de l'échantillonnage de Gibbs. Le troisième chapitre propose une estimation Bayésienne de la récente régression quantile non-conditionnelle basée sur la fonction d'influence recentrée (regression RIF) dans laquelle la densité est estimée par un mélange de lois normales. De cette approche, on déduit une inférence Bayesienne pour la méthode de décomposition d'Oaxaca-Blinder. La méthode proposée est utilisée pour analyser la dispersion des salaires aux Etats-Unis entre 1992-2009.Le quatrième chapitre propose une inférence Bayésienne d'un mélange de deux lois de Pareto simples pour modéliser la partie supérieure d'une distribution de salaires. Cette approche est utilisée pour analyser la répartition des hauts salaires aux Etats-Unis afin de tester les deux modèles (Tournoi et Superstar). Le cinquième chapitre de la thèse est consacré à l'analyse des rendements privés de l'éducation sur le revenu des ménages et des inégalités entre les populations urbaines et rurales. Il considère le cas du Sénégal et utilise les dépenses totales de consommation comme indicateur du revenu. / This dissertation consists of four essays on the econometrics of inequality and poverty measurement. It provides a statistical analysis based on probabilistic models, finite mixture distributions and quantile regression models, all using aBayesian approach.Chapter 2 models income distribution using a mixture of lognormal densities. Using the analytical expression of inequality indices, it shows how a Rao-Blackwellised Gibbs sampler can lead to accurate inference on income inequality measurements even in small samples.Chapter 3 develops Bayesian inference for the unconditional quantile regression model based on the Re-centered Influence Function (RIF). It models the considered distribution by a mixture of lognormal densities and then provides conditional posterior densities for the quantile regression parameters. This approach is perceived to provide better estimates in the extreme quantiles in the presence of heavy tails as well as valid small sample confidence intervalsfor the Oaxaca-Blinder decomposition.Chapter 4 provides Bayesian inference for a mixture of two Pareto distributions which is then used to approximate the upper tail of a wage distribution. This mixture model is applied to the data from the CPS ORG to analyze the recent structure of top wages in the U.S. from 1992 through 2009. Findings are largely in accordance with the explanations combining the model of superstars and the model of tournaments in hierarchical organization structures. Chapter 5 makes use of the RIF-regression to measure both changes in the return to education across quantiles and rural urban inequality decomposition in consumption expenditure in Senegal.
39

Measuring and managing operational risk in the insurance and banking sectors / Mesure et gestion du risque opérationnel en assurance et finance

Karam, Elias 26 June 2014 (has links)
Notre intérêt dans cette thèse est de combiner les différentes techniques de mesure du risque opérationnel dans les secteurs financiers, et on s'intéresse plus particulièrement aux conséquences du risque d'estimation dans les modèles, qui est un risque opérationnel particulier. Nous allons présenter les concepts mathématiques et actuariels associés ainsi qu'une application numérique en ce qui concerne l'approche de mesure avancée comme Loss Distribution pour calculer l'exigence en capital. En plus, on se concentre sur le risque d'estimation illustré avec l'analyse des scénarios de l'opinion d'experts en conjonction avec des données de pertes internes pour évaluer notre exposition aux évènements de gravité. Nous concluons cette première partie en définissant une technique de mise l'échelle sur la base de (MCO) qui nous permet de normaliser nos données externes à une banque locale Libanaise.Dans la deuxième partie, on donne de l'importance sur la mesure de l'erreur induite sur le SCR par l'erreur d'estimation des paramètres, on propose une méthode alternative pour estimer une courbe de taux et on termine par attirer l'attention sur les réflexions autour des hypothèses de calcul et ce que l'on convient de qualifier d'hypothèse "cohérente avec les valeurs de marché" serait bien plus pertinente et efficace que la complexification du modèle, source d'instabilité supplémentaire, ainsi mettre en évidence le risque d'estimation qui est lié au risque opérationnel et doit être accordé beaucoup plus d'attention dans nos modèles de travail / Our interest in this thesis is first to combine the different measurement techniques for operational risk in financial companies, and we highlight more and more the consequences of estimation risk which is treated as a particular part of operational risk. In the first part, we will present a full overview of operational risk, from the regulatory laws and regulations to the associated mathematical and actuarial concepts as well as a numerical application regarding the Advanced Measurement Approach, like Loss Distribution to calculate the capital requirement, then applying the Extreme Value Theory. We conclude this first part by setting a scaling technique based on (OLS) enabling us to normalize our external data to a local Lebanese Bank. On the second part, we feature estimation risk by first measuring the error induced on the SCR by the estimation error of the parameters, to having an alternative yield curve estimation and finishing by calling attention to the reflections on assumptions of the calculation instead of focusing on the so called hypothesis "consistent with market values", would be more appropriate and effective than to complicate models and generate additional errors and instability. Chapters in this part illustrate the estimation risk in its different aspects which is a part of operational risk, highlighting as so the attention that should be given in treating our models
40

Modélisation de la végétation holocène du Nord-Ouest de la France : reconstruction de la chronologie et de l’évolution du couvert végétal du Bassin parisien et du Massif armoricain / Holocene vegetation cover of the North-Western France : reconstrution of the chronology and evolution of the vegetation cover from the Paris Basin and the Armorican Massif

David, Rémi 04 April 2014 (has links)
Comprendre la complexité des relations entre nature et sociétés a toujours constitué un défi pour les recherches dans le domaine de l'environnement. A l'ère de la compilation de données dans de nombreuses disciplines, la modélisation constitue l'une des options les plus attractives pour comprendre et traduire les évolutions du milieu naturel. Les objectifs principaux de ce travail de recherche sont 1) de restituer la structure du couvert végétal régional et d'en retracer les évolutions au cours de l'Holocène au sein de deux régions du nord-ouest de la France, le Bassin parisien et le Massif armoricain, et 2) de les interpréter en termes de relations entre les sociétés pré- et protohistoriques et leur milieu naturel. Pour cela, nous avons mis en place une démarche méthodologique visant à 1) redéfinir le cadre chronologique des séquences polliniques rassemblées pour les deux régions, 2) tester, adapter puis appliquer un modèle de reconstitution quantitative du couvert végétal, 3) définir une histoire de la végétation estimée relative à chaque aire géographique modélisée, 4) comparer ces histoires régionales et 5) les confronter aux informations disponibles en matière de densités de sites archéologiques et de proximité de ces sites aux points de sondages polliniques. Des cadres structurant l'évolution du couvert végétal pour chacune des deux régions étudiées ressortent les grandes étapes de la mise en place des paysages au cours de l'Holocène. Des spécificités régionales ont cependant pu être identifiées, tant en matière de chronologie de l'évolution de la végétation estimée qu'en matière de proportions relatives des taxons présents. Une certaine singularité doit donc être reconnue à l'évolution des paysages holocènes de chacune de ces deux parties du nord-ouest de la France. On remarque notamment des dynamiques et des niveaux d'anthropisation tout à fait distincts entre Bassin parisien et Massif armoricain de la fin du Mésolithique à celle du Néolithique. A l'inverse, on retrouve de part et d'autre une certaine similarité entre les proportions estimées des taxons marqueurs d'anthropisation entre la fin du Néolithique et celle de l'âge du Bronze. Des liens évidents entre les variations de l'impact anthropique enregistré et celles de la densité des occupations reconnues ont par ailleurs pu être observés. / Understanding the complex relationship between nature and societies has always been a challenge for environmental sciences. With the growing impact of databases in many disciplines, the modelling appears as one of the most attractive methods for understanding and describing environmental changes. The main objectives of this research work are 1) to reconstruct the structure of the regional vegetation cover and to determine its trends during the Holocene in two regions of north-western France, the Paris Basin and the Armorican Massif, and 2) to interpret them in terms of relationships between the pre- and proto-historic societies and their environment. Thus, we set up a methodological approach aimed at 1) redefining the chronological framework of pollen sequences collected for both regions, 2) testing, adapting and then applying a model in order to produce quantitative estimates of vegetation cover, 3) defining a history of the estimated vegetation for each area modelled, 4) comparing these regional results and 5) confronting them to the available informations in terms of densities of archaeological sites and proximity of these sites to the pollen samples locations. From the general framework structuring the vegetation cover changes for both study areas stand out the major steps of the development of natural landscapes during the Holocene. Nevertheless, regional distinctive features were identified; both in terms of chronology of the vegetation cover changes, than in terms of relative proportions of taxa in the vegetation estimates. Some singularity must be recognized in the Holocene landscape evolution for each of these two parts of north-western France. We noticed distinct rates and rhythms, concerning the anthropogenic impact on the Paris Basin and the Armorican Massif estimated vegetation covers, from the late Mesolithic to the late Neolithic. On the other hand, we found similarities between both areas concerning the estimated proportions for anthropogenic markers taxa between the late Neolithic and the late Bronze Age. Clear links between changes observed in human impact on the vegetation cover estimates and those recorded in the density of archaeological sites were also noticed.

Page generated in 0.4845 seconds