• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 15
  • 6
  • Tagged with
  • 45
  • 45
  • 20
  • 19
  • 14
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation de la production d'hydrocarbures dans un bassin pétrolier

Michel, Bertrand 25 September 2008 (has links) (PDF)
Cette thèse a pour objet la modélisation de la production pétrolière dans un bassin d'hydrocarbures. Le modèle proposé s'appuie sur une description probabiliste des réserves, de l'exploration des hydrocarbures et de la mise en production des gisements découverts. L'utilisation de la loi de Lévy-Pareto pour décrire les tailles des gisements s'appuie d'une part sur une description probabiliste de la formation des réserves au cours de l'évolution du temps géologique et d'autre part sur les propriétés d'invariance de la distribution de Poisson Dirichlet pour des processus de coalescence et de fragmentation, dans le cadre du modèle de Bolthausen Sznitman. Deux principaux problèmes statistiques, relevant tous les deux d'une problématique de choix de modèle en estimation de densité, sont identifiés. Le premier concerne l'estimation d'un modèle d'exploration pétrolière et le second est une étude de courbes de production qui repose sur une classification non supervisée et une sélection de variables pertinentes effectués via la sélection d'un modèle de mélange Gaussien. Dans les deux cas, un critère de maximum de vraisemblance pénalisé est défini pour obtenir une inégalité de type oracle. Le modèle global de production pétrolière d'un bassin ainsi obtenu permet d'une part de préciser la forme des profils de production de bassin et d'autre part de proposer des scénarios de prolongement de la production de bassin en cours d'exploitation.
Read more
22

Extrema de processus stochastiques. Propriétés asymptotiques de tests d'hypothèses

Mercadier, Cécile 01 July 2005 (has links) (PDF)
Cette thèse se divise en deux parties.<br />La première partie s'inscrit dans la lignée des résultats composant la théorie des valeurs extrêmes. Ces analyses se destinent au calcul de probabilité des événements rares. Le premier travail donne l'ordre asymptotique du maximum d'un processus gaussien, non-stationnaire à variance constante. Le second travail caractérise la loi du maximum en temps fini, et donc pour des niveaux de tous ordres. La procédure d'estimation a d'ailleurs donné naissance à une boîte à outils Matlab appelée MAGP. La seconde partie regroupe deux applications statistiques. D'une part, la distribution et la puissance du test, basé sur le maximum de vraisemblance, sont étudiées pour des modèles de mélange. D'autre part, la construction d'un test de sphéricité est envisagée à l'aide des valeurs propres extrêmes des matrices de covariance.
23

Classification de données multivariées multitypes basée sur des modèles de mélange : application à l'étude d'assemblages d'espèces en écologie

Georgescu, Vera 17 December 2010 (has links) (PDF)
En écologie des populations, les distributions spatiales d'espèces sont étudiées afin d'inférer l'existence de processus sous-jacents, tels que les interactions intra- et interspécifiques et les réponses des espèces à l'hétérogénéité de l'environnement. Nous proposons d'analyser les données spatiales multi-spécifiques sous l'angle des assemblages d'espèces, que nous considérons en termes d'abondances absolues et non de diversité des espèces. Les assemblages d'espèces sont une des signatures des interactions spatiales locales des espèces entre elles et avec leur environnement. L'étude des assemblages d'espèces peut permettre de détecter plusieurs types d'équilibres spatialisés et de les associer à l'effet de variables environnementales. Les assemblages d'espèces sont définis ici par classification non spatiale des observations multivariées d'abondances d'espèces. Les méthodes de classification basées sur les modèles de mélange ont été choisies afin d'avoir une mesure de l'incertitude de la classification et de modéliser un assemblage par une loi de probabilité multivariée. Dans ce cadre, nous proposons : 1. une méthode d'analyse exploratoire de données spatiales multivariées d'abondances d'espèces, qui permet de détecter des assemblages d'espèces par classification, de les cartographier et d'analyser leur structure spatiale. Des lois usuelles, telle que la Gaussienne multivariée, sont utilisées pour modéliser les assemblages, 2. un modèle hiérarchique pour les assemblages d'abondances lorsque les lois usuelles ne suffisent pas. Ce modèle peut facilement s'adapter à des données contenant des variables de types différents, qui sont fréquemment rencontrées en écologie, 3. une méthode de classification de données contenant des variables de types différents basée sur des mélanges de lois à structure hiérarchique (définies en 2.). Deux applications en écologie ont guidé et illustré ce travail : l'étude à petite échelle des assemblages de deux espèces de pucerons sur des feuilles de clémentinier et l'étude à large échelle des assemblages d'une plante hôte, le plantain lancéolé, et de son pathogène, l'oïdium, sur les îles Aland en Finlande
Read more
24

Sélection de modèle pour la classification non supervisée. Choix du nombre de classes.

Baudry, Jean-Patrick 03 December 2009 (has links) (PDF)
Le cadre principal de cette thèse est la classification non supervisée, traitée par une approche statistique dans le cadre des modèles de mélange. Plus particulièrement, nous nous intéressons au choix du nombre de classes et au critère de sélection de modèle ICL. Une approche fructueuse de son étude théorique consiste à considérer un contraste adapté à la classification non supervisée : ce faisant, un nouvel estimateur ainsi que de nouveaux critères de sélection de modèle sont proposés et étudiés. Des solutions pratiques pour leur calcul s'accompagnent de retombées positives pour le calcul du maximum de vraisemblance dans les modèles de mélange. La méthode de l'heuristique de pente est appliquée pour la calibration des critères pénalisés considérés. Aussi les bases théoriques en sont-elles rappelées en détails, et deux approches pour son application sont étudiées. Une autre approche de la classification non supervisée est considérée : chaque classe peut être modélisée elle-même par un mélange. Une méthode est proposée pour répondre notamment à la question du choix des composantes à regrouper. Enfin, un critère est proposé pour permettre de lier le choix du nombre de composantes, lorsqu'il est identifié au nombre de classes, à une éventuelle classification externe connue a priori.
Read more
25

Classification Dynamique de données non-stationnaires :<br />Apprentissage et Suivi de Classes évolutives

Amadou Boubacar, Habiboulaye 28 June 2006 (has links) (PDF)
La plupart des processus naturels ou artificiels ont des comportements évolutifs décrits par des données non-stationnaires. La problématique étudiée dans cette thèse concerne la classification dynamique de données non-stationnaires. Nous proposons une description générique de classifieurs dynamiques conçue à l'aide d'un réseau neuronal à architecture évolutive. Elle est élaborée en quatre procédures d'apprentissage : création, adaptation, fusion, et évaluation. Deux algorithmes sont développés à partir de cette description générique. Le premier est une nouvelle version de l'algorithme AUDyC (AUto-adaptive and Dynamical Clustering). Il utilise un modèle de mélange décrit suivant l'approche multimodale. Le second, nommé SAKM (Self-Adaptive Kernel Machine), est basé sur les SVM et méthodes à noyau. Ces deux algorithmes sont dotés de règles de mise à jour récursives permettant la modélisation adaptative et le suivi de classes évolutives. Ils disposent de capacités d'auto-adaptation en environnement dynamique et de bonnes performances en terme de convergence et de complexité algorithmique. Ces dernières sont prouvées théoriquement et montrées par la simulation des algorithmes.
Read more
26

Sélection de variables pour la classification non supervisée en grande dimension

Meynet, Caroline 09 November 2012 (has links) (PDF)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse.
Read more
27

Modèles et inférence pour des systèmes stochastiques structurés

Forbes, Florence 07 December 2010 (has links) (PDF)
Le contexte de mon travail est la mise au point d'outils statistiques pour le dévelopement et l'analyse de modèles stochastiques structurés. L'idée sous-jacente à la notion de structure est qu'il est souvent possible à l'aide d'hypothèses locales simples combinées de manière cohérente de rendre compte de phénomènes globaux potentiellement complexes. Cette idée de construction du local vers le global guide ainsi la modélisation, l'estimation et l'interprétation. Cette approche se révèle utile dans des domaines variés tels que le traitement du signal et de l'image, les neurosciences, la génomique, l'épidémiologie, etc. Inversement les besoins de ces domaines ont pu susciter en retour des développements théoriques importants. Par ailleurs, beaucoup de techniques statistiques sont encore limitées par des d'hypothèses restrictives pouvant conduire à des analyses imprécises voire erronées. Différentes sources de complexité peuvent mettre en défaut les approches classiques. Souvent les données exhibent une structure de dépendance non triviale, due par exemple à des répétitions, des groupements, des méthodes d'échantillonnage particulières, des associations dans l'espace ou le temps. Une seconde source de complexité est liée au processus de mesure qui peut impliquer l'utilisation d'instruments physiquement très différents, qui produisent des données hétérogènes, en grandes dimensions et potentiellement de manière défaillante de sorte qu'une partie des données peut être manquante. La plupart de mes objectifs de recherche sont centrés sur la mise au point de modèles et d'outils d'inférence pouvant faire face à ce genre de complications fréquentes dans les données modernes et contribuer ainsi au développement de nouvelles méthodes statistiques. En ce qui concerne la notion de dépendance et de localité, un concept central est celui d'indépendance conditionnelle. Les propriétés de Markov et les modèles markoviens permettent d'énoncer de telles indépendances conditionnelles et ce thème est central dans ma recherche. Pour ce qui est des données manquantes ou incomplètes, les modèles de mélanges sont une approche classique. Ces modèles conduisent plus généralement à la notion de modèles à structure manquantes. Ces derniers sont également utiles pour rendre compte d'hétérogénéités dans les données. Ils trouvent de nombreux échos en statistique: modèles de mélanges finis, modèles de Markov cachés, modèles à effet aléatoire, etc. La présence de données incomplètes induit cependant généralement des difficultés pour ce qui est de l'estimation des paramètres et de l'évaluation des performances. Modèles markoviens et modèles de mélanges sont mes deux principaux thèmes de recherche avec cette idée unificatrice de structure dans les modèles mais aussi dans les données. J'ai pu montrer que ces deux thèmes pouvaient être reliés utilement en traitant des problèmes difficiles dans diverses applications. Plus précisément, j'ai developpé des modèles à structure cachée essentiellement dans le but de résoudre des problèmes de classifications inhérents à certaines questions. J'ai souvent abordé le problème de l'estimation de ces modèles à partir de l'algorithme EM et développé des variantes permettant d'apporter des solutions satisfaisantes lorsque les outils classiques faisaient défaut. J'ai tenté également d'apporter des résultats sur les propriétés théoriques, e.g. convergence et vitesse, de ces algorithmes. Enfin, j'ai abordé la question de la sélection de modèles essentiellement en cherchant à proposer des critères de sélection dans les cas où les critères classiques n'étaient pas calculables.
Read more
28

Contribution des modèles à classes latentes à l’étude de la répartition spatio-temporelle des vecteurs de Paludisme et à l’étude temporelle de l’observance aux antirétroviraux chez les patients VIH / Contribution of latent class models to the study of the spatio-temporal distribution of malaria vectors and to the temporal study of adherence to antiretroviral treatment by HIV patients

Boussari, Olayidé 16 June 2014 (has links)
Ce travail est construit autour de deux problématiques de santé relatives aux deux plus grandes pandémies qui sévissent en Afrique sub-saharienne : i) l'hétérogénéité rencontrée dans la répartition spatiale et temporelle des vecteurs de paludisme ; ii) la variabilité dans l'observance au traitement antirétroviral par des personnes vivant avec le virus de l'immunodéficience humaine. Sur le plan méthodologique, ces deux problèmes se rapportent à la prise en compte de l'hétérogénéité dans la modélisation de données issues de mesures répétées ; ils nécessitent en outre le développement d'outils statistiques permettant de distinguer à partir des données, des sous-groupes (de localités, d'individus. . .) homogènes indispensables pour rendre plus efficientes les mesures de santé souvent déployer par les praticiens dans le cadre de la lutte contre le paludisme ou le VIH/SIDA. Les modèles de mélanges finis, grâce à leur flexibilité, sont des outils capables de fournir non seulement de bonnes estimations en présence d'une grande hétérogénéité dans les observations mais aussi une bonne partition des unités statistiques. Nous les distinguons, parmi d'autres méthodes, comme étant adaptés aux problématiques du présent travail. Deux applications de ces modèles aux données issues de capture de moustiques ont permis de modéliser la répartition spatiale et temporelle de vecteurs de paludisme et de dégager une méthode simple d'évaluation d'impact de mesures de lutte anti vectorielle. Nous introduisons la notion de _trajectoires de variances_ dans une troisième application portant sur des données d'observance aux traitements antirétroviraux par des personnes vivant avec le virus de l'immunodéficience humaine / This work focuses on two health issues relating to two major pandemics in sub- Saharan Africa : i) the heterogeneity encountered in the spatial and temporal distribution of malaria vectors ; ii) the variability in adherence to antiretroviral treatment by people living with the human immunodeficiency virus. Methodologically, these two problems are related to the consideration of the heterogeneity in the modeling of data from repeated measurements. They also require the development of statistical tools to distinguish from the data, homogeneous clusters of localities, individuals. . . that are needed to make more efficient health measures often deployed by practitioners in the fight against malaria and HIV/AIDS. The finite mixture models, due to their flexibility, are statistical tools that not only provide good estimates in the presence of heterogeneity in the observations but also a good classification of statistical units. We show that they are able to deal with the problematics of our study. The spatial and temporal distributions of malaria vectors are modeled through two different applications of finite mixture models and a simple tool to evaluate the impact of vector control methods is generated. We introduce a ”variance trajectories” method in a third application of finite mixture models to data on adherence to antiretroviral therapy by people living with human immunodeficiency virus
Read more
29

Relation entre les trajectoires d’usage régulier de cannabis et celles d’activité physique modérée à vigoureuse chez les jeunes adultes

Kabanemi, Tshala Tina 01 1900 (has links)
Contexte : Les études sur l’association entre la consommation de cannabis et l’activité physique sont majoritairement transversales et rapportent des résultats contradictoires. Ce mémoire se penche sur la relation entre les trajectoires de consommation de cannabis et celles d’activité physique chez les jeunes adultes pour éclairer la recherche et informer la santé publique. Objectifs : Décrire 1) les trajectoires sexospécifiques d’activité physique modérée à vigoureuse (APMV) et d’usage régulier (1-7 jours/semaine) de cannabis (URC) des adultes de 20 à 35 ans et 2) la relation entre les trajectoires des deux comportements. Méthodes : Les données sur les 742 participants proviennent des cinq derniers cycles de l’étude longitudinale Nicotine Dependence in Teens. L’âge moyen des participants à chaque suivi est de 20,3, 24,0, 30,5, 33,6 et 35,2 ans. La méthode fondée sur le groupement de Nagin est utilisée pour identifier des trajectoires distinctes d’APMV et d’URC. Des probabilités conditionnelles reliant les trajectoires des deux comportements sont estimées pour décrire leur relation. Résultats : Les quatre trajectoires d’APMV et les deux trajectoires d’URC identifiées sont similaires chez les deux sexes. Les probabilités conditionnelles suggèrent que la trajectoire croissante d’APMV est associée à la trajectoire d’URC persistant chez les hommes et, dans une moindre mesure, chez les femmes. Conclusion : Il existe des trajectoires distinctes d’APMV et d’URC chez les jeunes adultes. Les individus, et plus particulièrement les hommes, qui ont des niveaux croissants d’APMV de 20 à 35 ans ont une probabilité accrue de consommer régulièrement du cannabis durant la même période. / Background: Most studies investigating the association between cannabis use and physical activity are cross-sectional and they report contradictory results. We investigated how cannabis use and physical activity co-occur over time among young adults to better understand their relationship and inform research and public health. Objectives: Describe 1) sex-specific trajectories of moderate-to-vigorous physical activity (MVPA) and regular (1-7 days/week) cannabis use (RCU) from age 20 to 35 and 2) associations between the trajectories of these two behaviors. Methods: A total of 742 participants from the five most recent cycles of the Nicotine Dependence in Teens longitudinal study provided MVPA and RCU data. Mean age at each cycle was 20.3, 24.0, 30.5, 33.6 and 35.2 years. Group-based trajectory modeling was used to identify distinct trajectories of MVPA and RCU. Conditional probabilities linking trajectories across behaviors were estimated to describe associations between MVPA and RCU trajectories. Results: The four MVPA trajectories and the two RCU trajectories identified were similar across sexes. Conditional probabilities suggested an association between the increasing MVPA trajectory and the trajectory of persistent RCU, more so among men than among women. Conclusion: Distinctive trajectories of MVPA and RCU exist in young adulthood. Individuals, and particularly men, with increasing MVPA levels from age 20 to 35 have an increased probability of RCU over the same age range.
Read more
30

Essays on the econometrics of inequality and poverty measurements / Essais à l'économétrie des mesures d'inégalité et de pauvreté

Ndoye, Abdoul Aziz Junior 02 July 2013 (has links)
Cette thèse est composée de quatre essais sur l'économétrie des mesures d'inégalité et de pauvreté. Elle fournit un traitement statistique fondé sur l'analyse de modèles probabilistes de mélange fini de distributions et de modèle de régression quantile, le tout dans une approche Bayésienne.Le deuxième chapitre s'intéresse à la modélisation d'une distribution de revenus par un mélange fini de lois log-normales dont les paramètres sont estimés par la méthode d'échantillonnage de Gibbs. Ce chapitre propose une méthode d'inférence statistique pour certains indices d'inégalité par une Rao-Blackwellisation de l'échantillonnage de Gibbs. Le troisième chapitre propose une estimation Bayésienne de la récente régression quantile non-conditionnelle basée sur la fonction d'influence recentrée (regression RIF) dans laquelle la densité est estimée par un mélange de lois normales. De cette approche, on déduit une inférence Bayesienne pour la méthode de décomposition d'Oaxaca-Blinder. La méthode proposée est utilisée pour analyser la dispersion des salaires aux Etats-Unis entre 1992-2009.Le quatrième chapitre propose une inférence Bayésienne d'un mélange de deux lois de Pareto simples pour modéliser la partie supérieure d'une distribution de salaires. Cette approche est utilisée pour analyser la répartition des hauts salaires aux Etats-Unis afin de tester les deux modèles (Tournoi et Superstar). Le cinquième chapitre de la thèse est consacré à l'analyse des rendements privés de l'éducation sur le revenu des ménages et des inégalités entre les populations urbaines et rurales. Il considère le cas du Sénégal et utilise les dépenses totales de consommation comme indicateur du revenu. / This dissertation consists of four essays on the econometrics of inequality and poverty measurement. It provides a statistical analysis based on probabilistic models, finite mixture distributions and quantile regression models, all using aBayesian approach.Chapter 2 models income distribution using a mixture of lognormal densities. Using the analytical expression of inequality indices, it shows how a Rao-Blackwellised Gibbs sampler can lead to accurate inference on income inequality measurements even in small samples.Chapter 3 develops Bayesian inference for the unconditional quantile regression model based on the Re-centered Influence Function (RIF). It models the considered distribution by a mixture of lognormal densities and then provides conditional posterior densities for the quantile regression parameters. This approach is perceived to provide better estimates in the extreme quantiles in the presence of heavy tails as well as valid small sample confidence intervalsfor the Oaxaca-Blinder decomposition.Chapter 4 provides Bayesian inference for a mixture of two Pareto distributions which is then used to approximate the upper tail of a wage distribution. This mixture model is applied to the data from the CPS ORG to analyze the recent structure of top wages in the U.S. from 1992 through 2009. Findings are largely in accordance with the explanations combining the model of superstars and the model of tournaments in hierarchical organization structures. Chapter 5 makes use of the RIF-regression to measure both changes in the return to education across quantiles and rural urban inequality decomposition in consumption expenditure in Senegal.
Read more

Page generated in 0.0636 seconds