• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 26
  • 7
  • Tagged with
  • 72
  • 72
  • 42
  • 41
  • 19
  • 16
  • 15
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Bayesian statistical inference for intractable likelihood models / Inférence statistique bayésienne pour les modélisations donnant lieu à un calcul de vraisemblance impossible

Raynal, Louis 10 September 2019 (has links)
Dans un processus d’inférence statistique, lorsque le calcul de la fonction de vraisemblance associée aux données observées n’est pas possible, il est nécessaire de recourir à des approximations. C’est un cas que l’on rencontre très fréquemment dans certains champs d’application, notamment pour des modèles de génétique des populations. Face à cette difficulté, nous nous intéressons aux méthodes de calcul bayésien approché (ABC, Approximate Bayesian Computation) qui se basent uniquement sur la simulation de données, qui sont ensuite résumées et comparées aux données observées. Ces comparaisons nécessitent le choix judicieux d’une distance, d’un seuil de similarité et d’un ensemble de résumés statistiques pertinents et de faible dimension.Dans un contexte d’inférence de paramètres, nous proposons une approche mêlant des simulations ABC et les méthodes d’apprentissage automatique que sont les forêts aléatoires. Nous utilisons diverses stratégies pour approximer des quantités a posteriori d’intérêts sur les paramètres. Notre proposition permet d’éviter les problèmes de réglage liés à l’ABC, tout en fournissant de bons résultats ainsi que des outils d’interprétation pour les praticiens. Nous introduisons de plus des mesures d’erreurs de prédiction a posteriori (c’est-à-dire conditionnellement à la donnée observée d’intérêt) calculées grâce aux forêts. Pour des problèmes de choix de modèles, nous présentons une stratégie basée sur des groupements de modèles qui permet, en génétique des populations, de déterminer dans un scénario évolutif les évènements plus ou moins bien identifiés le constituant. Toutes ces approches sont implémentées dans la bibliothèque R abcrf. Par ailleurs, nous explorons des manières de construire des forêts aléatoires dites locales, qui prennent en compte l’observation à prédire lors de leur phase d’entraînement pour fournir une meilleure prédiction. Enfin, nous présentons deux études de cas ayant bénéficié de nos développements, portant sur la reconstruction de l’histoire évolutive de population pygmées, ainsi que de deux sous-espèces du criquet pèlerin Schistocerca gregaria. / In a statistical inferential process, when the calculation of the likelihood function is not possible, approximations need to be used. This is a fairly common case in some application fields, especially for population genetics models. Toward this issue, we are interested in approximate Bayesian computation (ABC) methods. These are solely based on simulated data, which are then summarised and compared to the observed ones. The comparisons are performed depending on a distance, a similarity threshold and a set of low dimensional summary statistics, which must be carefully chosen.In a parameter inference framework, we propose an approach combining ABC simulations and the random forest machine learning algorithm. We use different strategies depending on the parameter posterior quantity we would like to approximate. Our proposal avoids the usual ABC difficulties in terms of tuning, while providing good results and interpretation tools for practitioners. In addition, we introduce posterior measures of error (i.e., conditionally on the observed data of interest) computed by means of forests. In a model choice setting, we present a strategy based on groups of models to determine, in population genetics, which events of an evolutionary scenario are more or less well identified. All these approaches are implemented in the R package abcrf. In addition, we investigate how to build local random forests, taking into account the observation to predict during their learning phase to improve the prediction accuracy. Finally, using our previous developments, we present two case studies dealing with the reconstruction of the evolutionary history of Pygmy populations, as well as of two subspecies of the desert locust Schistocerca gregaria.
22

Mathematical modeling and statistical inference to better understand arbovirus dynamics / Modélisation mathématique et inférence statistique pour une meilleure compréhension des dynamiques des arboviroses

Champagne, Clara 11 December 2018 (has links)
L’importance et l’expansion des arboviroses comme la dengue ou le virus Zika nécessite des modèles pour mieux comprendre et prédire leurs dynamiques. La propagation vectorielle de ces maladies est influencée par de multiples facteurs humains et environnementaux qui rendent complexe la construction de modèles épidémiologiques parcimonieux. Parallèlement, de nombreux outils théoriques et computationnels existent désormais pour confronter ces modèles aux données observées. L’objectif de ce travail de thèse est donc d’apporter l’éclairage des données sur les modèles de propagation des arboviroses. Dans un premier temps, il s’agit d’identifier les éléments les plus importants à incorporer pour modéliser les dynamiques de la dengue en milieu rural, dans la région de Kampong Cham (Cambodge). Différents modèles sont comparés, complexifiant à la fois le détail de l’histoire de la maladie et la prise en compte des formes de stochasticité. Dans le cadre déterministe, on a pu souligner l’importance des interactions entre sérotypes, et le faible intérêt pour la représentation explicite des moustiques vecteurs et des individus asymptomatiques. Par ailleurs, la prise en compte des incertitudes indique qu’une large part de la dynamique est capturée seulement par la stochasticité et non par les éléments du squelette déterministe du modèle. Aussi étudie-t-on dans un second temps d’autres aspects de la transmission de la dengue, comme la saisonnalité et la structure spatiale, grâce à des données d’épidémies à Rio de Janeiro (Brésil). Dans un dernier temps, ces méthodes et modèles sont appliqués à l’étude d’un arbovirus émergent, le virus Zika. A partir de données d’épidémies survenues dans le Pacifique, les paramètres-clé de la propagation du virus sont estimés dans le cadre stochastique, et leur variabilité est envisagée à la fois en termes de contexte géographique et de modèle épidémiologique, par la comparaison de quatre îles et de deux modèles à transmission vectorielle. Par ailleurs, la question des interactions potentielles du virus Zika avec celui de la dengue est explorée. / Arboviruses such as the dengue and Zika viruses are expanding worldwide and mo- deling their dynamics can help to better understand and predict their propagation, as well as experiment control scenarios. These mosquito-borne diseases are influenced by a multiplicity of human and environmental factors that are complex to include in parsimonious epidemiological models. In parallel, statistical and computational tools are nowadays available to confront theore- tical models to the observed data. The objective of this PhD work is therefore to study arbovirus propagation models in the light of data. Firstly, in order to identify the most important elements to incorporate in models for dengue dynamics in a rural setting, several dengue models are com- pared using data from the Kampong Cham region in Cambodia. Models incorporate increasing complexity both in the details of disease life history and in the account for several forms of sto- chasticity. In the deterministic framework, including serotype interactions proved decisive, whereas explicit modeling of mosquito vectors and asymptomatic infections had limited added value, when seasonality and underreporting are already accounted for. Moreover, including several forms of un- certainties highlighted that a large part of the disease dynamics is only captured by stochasticity and not by the elements of the deterministic skeleton. Therefore, secondly, we explore other aspects of transmission, such as seasonality and spatial structure, in the case of dengue epidemics in Rio de Janeiro (Brazil). Finally, the models and estimation methods are applied to study an emerging arbovirus, the Zika virus. Using data from epidemics in the Pacific, we estimate the key parameters of disease propagation in the stochastic framework and explore their variability in terms of geogra- phic setting and model formulation by comparing four islands and two models with vector-borne transmission. In addition, potential interactions with the dengue virus are explored.
23

Inversion Bayésienne : illustration sur des problèmes tomographiques et astrophysiques

Rodet, Thomas 20 November 2012 (has links) (PDF)
Nous nous intéressons ici aux problèmes inverses mal posés ainsi qu'à leur résolution dans un cadre bayésien. Dans un premier temps, nous décrirons la démarche que nous avons suivie lors de la résolution d'un problème inverse mal posé. Elle consiste à déterminer simultanément la paramétrisation de l'objet inconnu, le modèle " simplifié " décrivant le principe de formation des données, le choix du modèle de bruit et le choix de l'information a priori introduite. Ces différents choix sont souvent contraints par le temps de calcul nécessaire pour obtenir l'estimateur. On illustrera la démarche en résolvant des problèmes inverses variés dans le domaine de l'imagerie médicale (réduction des artéfacts métalliques) et de l'astrophysique (reconstruction 3D+T de la couronne solaire et reconstruction sur-résolue du rayonnement infra-rouge de l'univers). Dans deuxième temps, nous développerons un aspect plus méthodologique. En effet, nous avons constaté que les approches entièrement bayésiennes étaient difficilement applicables à des problèmes de grandes dimensions (plus d'un million d'inconnues) pour des raisons de coût calculatoire. Nous avons donc mis au point une nouvelle approche bayésienne variationnelle permettant de s'affranchir de ce problème. Pour obtenir notre algorithme, nous avons résolu un problème d'optimisation fonctionnelle dans l'espace des mesures à densité. Puis, nous avons appliqué notre approche sur l'inversion de problèmes linéaires de grandes tailles.
24

Méthodes Bayésiennes pour le démélange d'images hyperspectrales / Bayesian methods for hyperspectral image unmixing

Eches, Olivier 14 October 2010 (has links)
L’imagerie hyperspectrale est très largement employée en télédétection pour diverses applications, dans le domaine civil comme dans le domaine militaire. Une image hyperspectrale est le résultat de l’acquisition d’une seule scène observée dans plusieurs longueurs d’ondes. Par conséquent, chacun des pixels constituant cette image est représenté par un vecteur de mesures (généralement des réflectances) appelé spectre. Une étape majeure dans l’analyse des données hyperspectrales consiste à identifier les composants macroscopiques (signatures) présents dans la région observée et leurs proportions correspondantes (abondances). Les dernières techniques développées pour ces analyses ne modélisent pas correctement ces images. En effet, habituellement ces techniques supposent l’existence de pixels purs dans l’image, c’est-à-dire des pixels constitué d’un seul matériau pur. Or, un pixel est rarement constitué d’éléments purs distincts l’un de l’autre. Ainsi, les estimations basées sur ces modèles peuvent tout à fait s’avérer bien loin de la réalité. Le but de cette étude est de proposer de nouveaux algorithmes d’estimation à l’aide d’un modèle plus adapté aux propriétés intrinsèques des images hyperspectrales. Les paramètres inconnus du modèle sont ainsi déduits dans un cadre Bayésien. L’utilisation de méthodes de Monte Carlo par Chaînes de Markov (MCMC) permet de surmonter les difficultés liées aux calculs complexes de ces méthodes d’estimation. / Hyperspectral imagery has been widely used in remote sensing for various civilian and military applications. A hyperspectral image is acquired when a same scene is observed at different wavelengths. Consequently, each pixel of such image is represented as a vector of measurements (reflectances) called spectrum. One major step in the analysis of hyperspectral data consists of identifying the macroscopic components (signatures) that are present in the sensored scene and the corresponding proportions (concentrations). The latest techniques developed for this analysis do not properly model these images. Indeed, these techniques usually assume the existence of pure pixels in the image, i.e. pixels containing a single pure material. However, a pixel is rarely composed of pure spectrally elements, distinct from each other. Thus, such models could lead to weak estimation performance. The aim of this thesis is to propose new estimation algorithms with the help of a model that is better suited to the intrinsic properties of hyperspectral images. The unknown model parameters are then infered within a Bayesian framework. The use of Markov Chain Monte Carlo (MCMC) methods allows one to overcome the difficulties related to the computational complexity of these inference methods.
25

Évolution moléculaire : un modèle Markov-modulé pour les processus de substitution

Fournier, Eric 01 1900 (has links)
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique. / Time-continuous Markovian process are widely used to understand the mechanism of nucleotidic acids and proteins evolution along phylogeny. Already existing probabilistic models based on such hypothesis are designed to satisfy the non-homogeneity of functional and environmental constraints acting across those biological sequences. Recently, Markov-modulated models have been introduced to describe site-specific temporal rate variation (heterotachy). Moreover, studies have demonstrated that not only strength but also the nature of the constraint acting on a specific site can vary over time. Here we propose to accommodate this evolutionary reality with a Markov-modulated model for proteins under which sites are authorized to change their amino acids propensities across time. Posterior estimation of the stochastic kernel hidden parameters with Monte Carlo methods is a challenging approach that we partially overcome with parallel computing. Fine-tuning are otherwise planned to accelerate convergence toward the target posterior stationnary distribution. Qualitatively, our model seems to be able to capture temporal heterogeneity from real sequences data sets whose evolutionary history is assumed to be rich in substitutional switch events. Furthermore, evaluation of the model performance suggest that he provides a better fit to the data set than the time-homogeneous equivalent model. Nonetheless, substitutional histories sampled from the posterior distribution are quite noisy and remain difficult to interpret biologically.
26

Quelques utilisations de la densité GEP en analyse bayésienne sur les familles de position-échelle

Desgagné, Alain January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
27

Modélisation stochastique de processus pharmaco-cinétiques, application à la reconstruction tomographique par émission de positrons (TEP) spatio-temporelle / Stochastic modeling of pharmaco-kinetic processes, applied to PET space-time reconstruction

Fall, Mame Diarra 09 March 2012 (has links)
L'objectif de ce travail est de développer de nouvelles méthodes statistiques de reconstruction d'image spatiale (3D) et spatio-temporelle (3D+t) en Tomographie par Émission de Positons (TEP). Le but est de proposer des méthodes efficaces, capables de reconstruire des images dans un contexte de faibles doses injectées tout en préservant la qualité de l'interprétation. Ainsi, nous avons abordé la reconstruction sous la forme d'un problème inverse spatial et spatio-temporel (à observations ponctuelles) dans un cadre bayésien non paramétrique. La modélisation bayésienne fournit un cadre pour la régularisation du problème inverse mal posé au travers de l'introduction d'une information dite a priori. De plus, elle caractérise les grandeurs à estimer par leur distribution a posteriori, ce qui rend accessible la distribution de l'incertitude associée à la reconstruction. L'approche non paramétrique quant à elle pourvoit la modélisation d'une grande robustesse et d'une grande flexibilité. Notre méthodologie consiste à considérer l'image comme une densité de probabilité dans (pour une reconstruction en k dimensions) et à chercher la solution parmi l'ensemble des densités de probabilité de . La grande dimensionalité des données à manipuler conduit à des estimateurs n'ayant pas de forme explicite. Cela implique l'utilisation de techniques d'approximation pour l'inférence. La plupart de ces techniques sont basées sur les méthodes de Monte-Carlo par chaînes de Markov (MCMC). Dans l'approche bayésienne non paramétrique, nous sommes confrontés à la difficulté majeure de générer aléatoirement des objets de dimension infinie sur un calculateur. Nous avons donc développé une nouvelle méthode d'échantillonnage qui allie à la fois bonnes capacités de mélange et possibilité d'être parallélisé afin de traiter de gros volumes de données. L'approche adoptée nous a permis d'obtenir des reconstructions spatiales 3D sans nécessiter de voxellisation de l'espace, et des reconstructions spatio-temporelles 4D sans discrétisation en amont ni dans l'espace ni dans le temps. De plus, on peut quantifier l'erreur associée à l'estimation statistique au travers des intervalles de crédibilité. / The aim of this work is to develop new statistical methods for spatial (3D) and space-time (3D+t) Positron Emission Tomography (PET) reconstruction. The objective is to propose efficient reconstruction methods in a context of low injected doses while maintaining the quality of the interpretation. We tackle the reconstruction problem as a spatial or a space-time inverse problem for point observations in a \Bayesian nonparametric framework. The Bayesian modeling allows to regularize the ill-posed inverse problem via the introduction of a prior information. Furthermore, by characterizing the unknowns with their posterior distributions, the Bayesian context allows to handle the uncertainty associated to the reconstruction process. Being nonparametric offers a framework for robustness and flexibility to perform the modeling. In the proposed methodology, we view the image to reconstruct as a probability density in(for reconstruction in k dimensions) and seek the solution in the space of whole probability densities in . However, due to the size of the data, posterior estimators are intractable and approximation techniques are needed for posterior inference. Most of these techniques are based on Markov Chain Monte-Carlo methods (MCMC). In the Bayesian nonparametric approach, a major difficulty raises in randomly sampling infinite dimensional objects in a computer. We have developed a new sampling method which combines both good mixing properties and the possibility to be implemented on a parallel computer in order to deal with large data sets. Thanks to the taken approach, we obtain 3D spatial reconstructions without any ad hoc space voxellization and 4D space-time reconstructions without any discretization, neither in space nor in time. Furthermore, one can quantify the error associated to the statistical estimation using the credibility intervals.
28

Apprentissage de modèles de formes parcimonieux basés sur des représentations splines

Amate, Laure 10 December 2009 (has links) (PDF)
Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identification de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation des leurs propriétés sera probabiliste. Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse. Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa fidélité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle. Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois.
29

Evaluation des modèles de calcul des flux polluants des rejets urbains par temps de pluie: Apport de l'approche bayésienne

Kanso, Assem 09 1900 (has links) (PDF)
Ce travail de thèse se propose d'analyser et d'évaluer les modèles de calcul des flux polluants (MCFP) des rejets urbains par temps de pluie. Pour cela, un banc d'essai a été établi qui repose sur l'utilisation d'une méthodologie basée sur la théorie bayésienne. Ce banc d'essai a été utilisé à des différentes échelles d'espace tout au long du cheminement de l'eau de ruissellement depuis les chaussées jusqu'à l'exutoire du réseau d'assainissement sur le site du bassin versant expérimental du Marais à Paris. Cette méthodologie du banc d'essai utilise une technique de simulation par chaîne de Markov (algorithme Metropolis) pour estimer la distribution de probabilité a posteriori des paramètres du modèle, ce qui permet : - Une évaluation quantitative des incertitudes liées à l'estimation des paramètres ainsi que leurs interactions ; - Une estimation quantitative du niveau d'incertitude dans les résultats d'application de ces modèles ; - Une estimation du pouvoir prédictif du modèle. A l'échelle locale, des modèles d'accumulation, d'entraînement des solides sur les surfaces urbaines, et des modèles d'érosion des solides dans les réseaux d'assainissement ont été testés et analysés. A l'échelle du bassin versant le couplage des modèles élémentaires tel qu'ils sont utilisés dans les logiciels actuels, a pu être évalué. La méthodologie de mise en œuvre a produit des résultats fiables en particulier des distributions de paramètres des modèles qui aident à l'analyse mathématique et à l'interprétation des modèles couramment utilisés. Elle a démontré l'existence de larges incertitudes liées à l'utilisation des MCFP à l'échelle de bassin versant. Ces modèles n'expliquent qu'une faible partie de la variation de la concentration des MES entre 2 événements pluvieux ou à l'intérieur d'un même événement sur le site étudié.
30

Une approche bayésienne de l'inversion. Application à l'imagerie de diffraction dans les domaines micro-onde et optique

Ayasso, Hacheme 10 December 2010 (has links) (PDF)
Dans ce travail, nous nous intéressons à l'imagerie de diffraction dans des configurations à deux ou trois dimensions avec pour objectif la reconstruction d'une image (fonction contraste) d'un objet inconnu à l'aide de plusieurs mesures du champ qu'il diffracte. Ce champ résulte de l'interaction entre l'objet et un champ incident connu dont la direction de propagation et la fréquence peuvent varier. La difficulté de ce problème réside dans la non-linéarité du modèle direct et le caractère mal posé du problème inverse qui nécessite l'introduction d'une information a priori (régularisation). Pour cela, nous utilisons une approche bayésienne avec une estimation conjointe du contraste de l'objet, des courants induits et des autres paramètres du modèle. Le modèle direct est décrit par deux équations intégrales couplées exprimant les champs électriques observé et existant à l'intérieur de l'objet, dont les versions discrètes sont obtenues à l'aide de la méthode des moments. Pour l'inversion, l'approche bayésienne permet de modéliser notre connaissance a priori sur l'objet sous forme probabiliste. Les objets que nous étudions ici sont connus pour être constitués d'un nombre fini de matériaux homogènes répartis en régions compactes. Cette information a priori est introduite dans l'algorithme d'inversion à l'aide d'un mélange de gaussiennes, où chaque gaussienne représente une classe de matériaux, tandis que la compacité des régions est prise en compte au travers d'un modèle de Markov caché. La nature non linéaire du modèle direct et l'utilisation de cet a priori nous amènent à des estimateurs qui n'ont pas de formes explicites. Une approximation est donc nécessaire et deux voies sont possibles pour cela: une approche numérique, par exemple MCMC, et une approche analytique comme l'approche bayésienne variationnelle. Nous avons testé ces deux approches qui ont donné de bons résultats de reconstruction par rapport aux méthodes classiques. Cependant, l'approche bayésienne variationnelle permet de gagner énormément en temps de calcul par rapport à la méthode MCMC.

Page generated in 0.4603 seconds