• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 57
  • 5
  • Tagged with
  • 162
  • 96
  • 56
  • 38
  • 34
  • 28
  • 24
  • 24
  • 22
  • 20
  • 18
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Developpements d'outils d'aide au diagnostic en contexte incertain / Development of a diagnostic support tools in uncertain context

Mabrouk, Ahmed 13 September 2016 (has links)
Le diagnostic des scénarios d'accidents nucléaires graves représente un enjeu majeur pour la sûreté nucléaire et la gestion de crise. Le problème est complexe à cause de la complexité des phénomènes physiques et chimiques sous-jacents des accidents graves, la difficulté de la compréhension des différentes corrélations entre ces derniers, et de surcroît la rareté des base de données descriptives. Ainsi, ce travail de thèse vise à proposer un outil dédié à la modélisation et au diagnostic des scénarios d'accident à base de réseaux bayésiens. L'usage des réseaux bayésiens reposera sur l'apprentissage à partir de bases de données de calculs créés avec le logiciel de calcul d'accident grave ASTEC. Dans ce contexte, l'utilisation des réseaux bayésiens a été, tout au long de ce travail doctoral, sujet à de nombreuses difficultés, notamment l'apprentissage de ces derniers à partir des données accidentelles qui, suite à de nombreuses études menées, ne se sont avérées pas tout à fait pertinentes pour mener à bien cette tâche. Ces difficultés proviennent principalement du fait que les données utilisées sont d'un coté de nature continue et de l'autre côté reliées à la fois par des relations déterministes et probabilistes. Ces deux contraintes posent un sérieux problème pour les algorithmes de construction des réseaux bayésiens qui supposent à la fois que toutes les relations entre variables sont de nature probabiliste et l'ensemble des variables utilisées sont de nature factorielle (ou discrète). Concernant le premier point, nous avons proposé un nouvel algorithme d’apprentissage de structure utilisant un ensemble de nouvelles règles (dont l'efficacité a été prouvée théoriquement et expérimentalement). Concernant l’étape de discrétisation, nous avons proposé une approche multivariée, qui d’après une étude expérimentale détaillée, nous a permis de pallier les inconvénients des algorithmes de l'état de l'art tout en minimisant la perte de l’information lors de la transformation des données. / The diagnosis of severe nuclear accident scenarios represents a major challenge for nuclear safety and crisis management. The problem is complex and remains until now one of the main research topics due to the complexity of the physical and chemical phenomena underlying severe accidents, the difficulty in understanding the different correlations between them, and in addition the unavailability of efficient public datasets. Thus, the purpose of this thesis is to propose a dedicated tool for modeling and diagnosis of accident scenarios based on Bayesian networks. The learning process of the Bayesian networks is based on the use of databases created with the ASTEC severe accident software. It should be emphasized that the use of Bayesian networks in this context has faced many challenges, notably the learning process from the accidental data which, after numerous studies, has been doomed to be ineffective to address efficiently this task. These difficulties arise mainly because the used data contains on the one hand, many continuous variables and on the other hand a set of both deterministic and probabilistic relationships between variables. These two constraints present a serious problem for the learning algorithms of Bayesian networks because these latter assume that all relationships between variables are probabilistic and all the used variables in the datasets are factorial (or discrete). Concerning the first point, we proposed of a new structure learning algorithm based on the use of a set of new rules (whose effectiveness has been proven theoretically and experimentally). Regarding discretization step, we proposed a multivariate approach which, according to a detailed experimental study, has enabled us to overcome the drawbacks of these latter while minimizing the information loss during the data transformation.
32

Apports de la modélisation causale dans l’évaluation des immunothérapies à partir de données observationnelles / Contribution of the Causal Model in the Evaluation of Immunotherapy Based on Observational Data

Asvatourian, Vahé 09 November 2018 (has links)
De nouveaux traitements comme l’immunothérapie ont été proposés en oncologie. Ils sont basés sur les mécanismes de régulation du système immunitaire. Cependant tous les patients ne répondent pas à ces nouveaux traitements. Afin de pouvoir les identifier, on mesure l’association des marqueurs immunologiques exprimés à la réponse au traitement ainsi qu’à la toxicité à l’instaurationdu traitement et leur évolution sous traitement. En situation observationnelle, l’absence de tirage au sort empêche la comparabilité des groupes et l'effet mesuré est juste une mesure d'association. Les méthodes d’inférence causalepermettent dans certains cas, après avoir identifié les sources de biais de par la construction de diagrammes acycliques dirigés (DAG), d'atteindre l’interchangeabilité conditionnelle entre exposés et non exposés etpermettent l’estimation d’effets causaux. Dans les cas les plus simples où le nombre de variables est faible, il est possible de dessiner leDAG à partir d’expertise. Dans les situations où le nombre de variables explosent, des algorithmes d’apprentissage ont été proposés pour retrouver la structure de ces graphes. Néanmoins ces algorithmes font d’une part l’hypothèse qu’aucune information n’est connue et n’ont été développés que dans les cas où les covariables sont mesurés à un seul temps. L’objectif de cette thèse est donc de développer ces méthodes d’apprentissages de graphes à des données répétées, puis d’intégrer des connaissances a priori pour améliorer l’estimation de ceux-ci. Une fois les graphes appris les modèles causaux peuvent être appliqués sur les biomarkers immunologiques répétés pour détecter ceux qui sont associés à laréponse et/ou la toxicité. / In oncology, new treatments such as immunotherapy have been proposed, which are based on regulation of the immune system. However, not all treated patient have a long-term benefit of the treatment. To identify those patients who benefit most, we measured markers of the immune system expressed at treatment initiation and across time. In an observational study, the lack of randomization makes the groups not comparable and the effect measured is just an association. In this context, causal inference methods allow in some cases, after having identified all biases by constructing a directed acyclic graph (DAG), to get close to the case of conditional exchangeability between exposed and non-exposed subjects and thus estimating causal effects.In the most simple cases, where the number of variables is low, it is possible to draw the DAG with experts’ beliefs. Whereas in the situation where the number of variables rises, learning algorithms have been proposed in order to estimate the structure of the graphs. Nevertheless, these algorithms make the assumptions that any a priori information between the markers is known and have mainly been developed in the setting in which covariates are measured only once. The objective of this thesis is to develop learning methods of graphs for taking repeated measures into account, and reduce the space search by using a priori expert knowledge. Based on these graphs, we estimate causal effects of the repeated immune markers on treatment response and/or toxicity.
33

Utilisation des ondelettes de Haar en estimation bayésienne

Leblanc, Alexandre January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
34

Methodes et outils d'aide au diagnostic et à la maintenance des tableaux électriques généraux par le suivi des grandeurs physiques caractéristiques et de leur fonctionnement

N'Guessan, Kahan 07 December 2007 (has links) (PDF)
Le tableau électrique est un élément clé de toute installation électrique. Il incorpore des dispositifs destinés à distribuer l'électricité et à protéger les circuits et les personnes. Cette thèse porte sur un système innovant de surveillance et de diagnostic des tableaux BT, basée sur les mesures de températures, et de courants. Ce système répond au besoin de prévenir les pannes, qui, bien que rares, peuvent entrainer des pertes financières énormes. Les mesures thermiques sont réalisées à l'aide de capteurs sans fil. Les données mesurées sont transmises via internet, et collectées dans un serveur, pour être traitées. Ce traitement comprend une phase de détection locale de défaut et une autre de diagnostic global conduisant à des recommandations de maintenance. Notre travail est axé sur les modules de détection et le diagnostic. Des résultats issus d'expérimentations et d'informations provenant d'experts sont présentés pour valider la faisabilité des méthodes mises en œuvre
35

Contributions à la statistique bayésienne non-paramétrique

Arbel, Julyan 24 September 2013 (has links) (PDF)
La thèse est divisée en deux parties portant sur deux aspects relativement différents des approches bayésiennes non-paramétriques. Dans la première partie, nous nous intéressons aux propriétés fréquentistes (asymptotiques) de lois a posteriori pour des paramètres appartenant à l'ensemble des suites réelles de carré sommable. Dans la deuxième partie, nous nous intéressons à des approches non-paramétriques modélisant des données d'espèces et leur diversité en fonction de certaines variables explicatives, à partir de modèles qui utilisent des mesures de probabilité aléatoires.
36

Évaluation d'un modèle a priori basé sur un seuillage de la TCD en super-résolution et comparaison avec d'autres modèles a priori

St-Onge, Philippe January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
37

Modélisation bayésienne des changements aux niches écologiques causés par le réchauffement climatique

Akpoué, Blache Paul 05 1900 (has links)
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche. / This thesis presents some estimation methods and algorithms to analyse count data in particular and discrete data in general. It is also part of an NSERC strategic project, named CC-Bio, which aims to assess the impact of climate change on the distribution of plant and animal species in Québec. After a brief introduction to the concepts and definitions of biogeography and those relative to the generalized linear mixed models in chapters 1 and 2 respectively, my thesis will focus on three major and new ideas. First, we introduce in chapter 3 a new form of distribution whose components have marginal distribution Poisson or Skellam. This new specification allows to incorporate relevant information about the nature of the correlations between all the components. In addition, we present some properties of this probability distribution function. Unlike the multivariate Poisson distribution initially introduced, this generalization enables to handle both positive and negative correlations. A simulation study illustrates the estimation in the two-dimensional case. The results obtained by Bayesian methods via Monte Carlo Markov chain (MCMC) suggest a fairly low relative bias of less than 5% for the regression coefficients of the mean. However, those of the covariance term seem a bit more volatile. Later, the chapter 4 presents an extension of the multivariate Poisson regression with random effects having a gamma density. Indeed, aware that the abundance data of species have a high dispersion, which would make misleading estimators and standard deviations, we introduce an approach based on integration by Monte Carlo sampling. The approach remains the same as in the previous chapter. Indeed, the objective is to simulate independent latent variables to transform the multivariate problem estimation in many generalized linear mixed models (GLMM) with conventional gamma random effects density. While the assumption of knowledge a priori dispersion parameters seems too strong and not realistic, a sensitivity analysis based on a measure of goodness of fit is used to demonstrate the robustness of the method. Finally, in the last chapter, we focus on the definition and construction of a measure of concordance or a correlation measure for some zeros augmented count data with Gaussian copula models. In contrast to Kendall's tau whose values lie in an interval whose bounds depend on the frequency of ties observations, this measure has the advantage of taking its values on the interval (-1, 1). Originally introduced to model the correlations between continuous variables, its extension to the discrete case implies certain restrictions and its values are no longer in the entire interval (-1,1) but only on a subset. Indeed, the new measure could be interpreted as the correlation between continuous random variables before being transformed to discrete variables considered as our discrete non negative observations. Two methods of estimation based on integration via Gaussian quadrature and maximum likelihood are presented. Some simulation studies show the robustness and the limits of our approach.
38

Estimation des corrélations phylogénétiques entre paramètres d'évolution moléculaire et Traits d'histoire de vie

Poujol, Raphael 02 1900 (has links)
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés. / In recent years, molecular evolution seeks to characterize the variation and intensity of selection through the ratio between non-synonymous and synonymous substitution rates (dN/dS). The dN/dS measure was either used to study the history of the variation of the intensity of selection over time or to detect episodes of positive selection. Correlations between selection and variations of the effective population size interfere in these measurements. The Comparative method can measure correlations between quantitative traits along a phylogeny. They are also be used to test hypotheses of correlated evolution of life history traits, like the body mass, and the substitution rate. We propose an approach combining the comparative method based on the principle of independent contrasts and a model of molecular evolution in a Bayesian probabilistic framework. By integrating along a phylogeny both ancestral reconstructions of lines and of dN/dS we estimate the covariance among traits and between traits and parameters of the model of molecular evolution. A hierarchical model was implemented in the software coevol published during this master. This model allows the simultaneous analysis of multiple genes within a single model. Parallel calculations allow increasing the size of the model to the genome scale. We studied placental mammals, where many complete genomes and phenotypic measurements are available. Based on theories of life history traits, our method is expected to characterize the association of groups of genes in biological processes related to the studied phenotypes.
39

Régression logistique bayésienne : comparaison de densités a priori

Deschênes, Alexandre 07 1900 (has links)
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5. / Logistic regression is a model of generalized linear regression (GLM) used to explain binary variables. The model seeks to estimate the probability of success of this variable by the linearization of explanatory variables. When the goal is to estimate more accurately the impact of various incentives from a marketing campaign (coefficients of the logistic regression), the identification of the choice of the optimum prior density is sought. In our simulations, using the MCMC method of slice sampling, we compare different prior densities specified by different types of density, location and scale parameters. These comparisons are applied to samples of different sizes generated with different probabilities of success. The maximum likelihood estimate, Gelman’s method and Genkin’s method complement the comparative. Our simulations demonstrate that the MCMC method with a normal prior density centered at 0 with variance of 3,125, the MCMC method with a Student prior density with 3 degrees of freedom centered at 0 with variance of 3,125 and Gelman’s method with a Cauchy density centered at 0 with scale parameter of 2,5 get estimates that are globally the most accurate of the coefficients of the logistic regression.
40

L’évolution modulaire des protéines : un point de vue phylogénétique / A phylogenetic view of the modular evolution of proteins

Sertier, Anne-Sophie 12 September 2011 (has links)
La diversité du monde vivant repose pour une large part sur la diversité des protéines codées dans les génomes. Comment une telle diversité a-t-elle été générée ? La théorie classique postule que cette diversité résulte à la fois de la divergence de séquence et de la combinatoire des arrangements de protéines en domaines à partir de quelques milliers de domaines anciens, mais elle n’explique pas les nombreuses protéines orphelines.Dans cette thèse, nous avons étudié l’évolution des protéines du point de vue de leur décomposition en domaines en utilisant trois bases de données : HOGENOM (familles de protéines homologues), Pfam (familles de domaines expertisées) et ProDom (familles de modules protéiques construites automatiquement). Chaque famille d’HOGENOM a ainsi été décomposée en domaines de Pfam ou modules de ProDom. Nous avons modélisé l’évolution de ces familles par un réseau Bayésien basé sur l’arbre phylogénétique des espèces. Dans le cadre de ce modèle, on peut reconstituer rigoureusement les scénarios d’évolution les plus probables qui reflètent la présence ou l’absence de chaque protéine, domaine ou module dans les espèces ancestrales. La mise en relation de ces scénarios permet d’analyser l’émergence de nouvelles protéines en fonctions de domaines ou modules ancestraux. L’analyse avec Pfam suggère que la majorité de ces événements résulte de réarrangements de domaines anciens, en accord avec la théorie classique. Cependant une part très significative de la diversité des protéines est alors négligée. L’analyse avec ProDom, au contraire, suggère que la majorité des nouvelles protéines ont recruté de nouveaux modules protéiques. Nous discutons les biais de Pfam et de ProDom qui permettent d’expliquer ces points de vue différents. Nous proposons que l’émergence de nouveaux modules protéiques peut résulter d’un turn-over rapide de séquences codantes, et que cette innovation au niveau des modules est essentielle à l’apparition de nombreuses protéines nouvelles tout au long de l’évolution. / The diversity of life derives mostly from the variety of proteins coded in genomes. How did evolution produce such a tremendous diversity ? The classical theory postulates that this diversity results both from sequence divergence and from the combinatorial arrangements of a few thousand primary protein domain types. However this does not account for the increasing number of entirely unique proteins as found in most genomes.In this thesis, we study the evolution of proteins from the point of view of their domain decomposition and rely on three databases : HOGENOM (homologous protein families), Pfam (manually curated protein domain families) and ProDom (automatically built protein module families). Each protein family from HOGENOM has thus been decomposed into Pfam domains or ProDom modules. We have modelled the evolution of these families using a Bayesian network based on the phylogenetic species tree. In the framework of this model, we can rigorously reconstitute the most likely evolutionary scenarios reflecting the presence or absence of each protein, domain or module in ancestral species. The comparison of these scenarios allows us to analyse the emergence of new proteins in terms of ancestral domains or modules. Pfam analysis suggests that the majority of protein innovations results from rearrangements of ancient domains, in agreement with the classical paradigm of modular protein evolution. However a very significant part of protein diversity is then neglected. On the other hand ProDom analysis suggests that the majority of new proteins have recruited novel protein modules. We discuss the respective biases of Pfam and ProDom underlying these contrasting views. We propose that the emergence of new protein modules may result from a fast turnover of coding sequences and that this module innovation is essential to the emergence of numerous novel proteins throughout evolution

Page generated in 0.0485 seconds