• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Estimateur neuronal de ratio pour l'inférence de la constante de Hubble à partir de lentilles gravitationnelles fortes

Campeau-Poirier, Ève 12 1900 (has links)
Les deux méthodes principales pour mesurer la constante de Hubble, soit le taux d’expansion actuel de l’Univers, trouvent des valeurs différentes. L’une d’elle s’appuie lourdement sur le modèle cosmologique aujourd’hui accepté pour décrire le cosmos et l’autre, sur une mesure directe. Le désaccord éveille donc des soupçons sur l’existence d’une nouvelle physique en dehors de ce modèle. Si une autre méthode, indépendante des deux en conflit, soutenait une des deux valeurs, cela orienterait les efforts des cosmologistes pour résoudre la tension. Les lentilles gravitationnelles fortes comptent parmi les méthodes candidates. Ce phénomène se produit lorsqu’une source lumineuse s’aligne avec un objet massif le long de la ligne de visée d’un télescope. La lumière dévie de sa trajectoire sur plusieurs chemins en traversant l’espace-temps déformé dans le voisinage de la masse, résultant en une image déformée, gros- sie et amplifiée. Dans le cas d’une source lumineuse ponctuelle, deux ou quatre images se distinguent nettement. Si cette source est aussi variable, une de ses fluctuations apparaît à différents moments sur chaque image, puisque chaque chemin a une longueur différente. Le délai entre les signaux des images dépend intimement de la constante de Hubble. Or, cette approche fait face à de nombreux défis. D’abord, elle requiert plusieurs jours à des spécialistes pour exécuter la méthode de Monte-Carlo par chaînes de Markov (MCMC) qui évalue les paramètres d’un seul système de lentille à la fois. Avec les détections de milliers de systèmes prévues par l’observatoire Rubin dans les prochaines années, cette approche est inconcevable. Elle introduit aussi des simplifications qui risquent de biaiser l’inférence, ce qui contrevient à l’objectif de jeter la lumière sur le désaccord entre les mesures de la constante de Hubble. Ce mémoire présente une stratégie basée sur l’inférence par simulations pour remédier à ces problèmes. Plusieurs travaux antérieurs accélèrent la modélisation de la lentille grâce à l’ap- prentissage automatique. Notre approche complète leurs efforts en entraînant un estimateur neuronal de ratio à déterminer la distribution de la constante de Hubble, et ce, à partir des produits de la modélisation et des mesures de délais. L’estimateur neuronal de ratio s’exécute rapidement et obtient des résultats qui concordent avec ceux de l’analyse traditionnelle sur des simulations simples, qui ont une cohérence statistique acceptable et qui sont non-biaisés. / The two main methods to measure the Hubble constant, the current expansion rate of the Universe, find different values. One of them relies heavily on today’s accepted cosmological model describing the cosmos and the other, on a direct measurement. The disagreement thus arouses suspicions about the existence of new physics outside this model. If another method, independent of the two in conflict, supported one of the two values, it would guide cosmologists’ efforts to resolve the tension. Strong gravitational lensing is among the candidate methods. This phenomenon occurs when a light source aligns with a massive object along a telescope line of sight. When crossing the curved space-time in the vicinity of the mass, the light deviates from its trajectory on several paths, resulting in a distorted and magnified image. In the case of a point light source, two or four images stand out clearly. If this source is also variable, the luminosity fluctuations will appear at different moments on each image because each path has a different length. The time delays between the image signals depend intimately on the Hubble constant. This approach faces many challenges. First, it requires several days for specialists to perform the Markov Chain Monte-Carlo (MCMC) which evaluates the parameters of a single lensing system at a time. With the detection of thousands of lensing systems forecasted by the Rubin Observatory in the coming years, this method is inconceivable. It also introduces simplifications that risk biasing the inference, which contravenes the objective of shedding light on the discrepancy between the Hubble constant measurements. This thesis presents a simulation-based inference strategy to address these issues. Several previous studies have accelerated the lens modeling through machine learning. Our approach complements their efforts by training a neural ratio estimator to determine the distribution of the Hubble constant from lens modeling products and time delay measurements. The neural ratio estimator results agree with those of the traditional analysis on simple simulations, have an acceptable statistical consistency, are unbiased, and are obtained significantly faster.
292

Détection de l’invalidité et estimation d’un effet causal en présence d’instruments invalides dans un contexte de randomisation mendélienne

Boucher-Roy, David 08 1900 (has links)
La randomisation mendélienne est une méthode d’instrumentation utilisant des instruments de nature génétique afin d’estimer, via par exemple la régression des moindres carrés en deux étapes, une relation de causalité entre un facteur d’exposition et une réponse lorsque celle-ci est confondue par une ou plusieurs variables de confusion non mesurées. La randomisation mendélienne est en mesure de gérer le biais de confusion à condition que les instruments utilisés soient valides, c’est-à-dire qu’ils respectent trois hypothèses clés. On peut généralement se convaincre que deux des trois hypothèses sont satisfaites alors qu’un phénomène génétique, la pléiotropie, peut parfois rendre la troisième hypothèse invalide. En présence d’invalidité, l’estimation de l’effet causal de l’exposition sur la réponse peut être sévèrement biaisée. Afin d’évaluer la potentielle présence d’invalidité lorsqu’un seul instrument est utilisé, Glymour et al. (2012) ont proposé une méthode qu’on dénomme ici l’approche de la différence simple qui utilise le signe de la différence entre l’estimateur des moindres carrés ordinaires de la réponse sur l’exposition et l’estimateur des moindres carrés en deux étapes calculé à partir de l’instrument pour juger de l’invalidité de l’instrument. Ce mémoire introduit trois méthodes qui s’inspirent de cette approche, mais qui sont applicables à la randomisation mendélienne à instruments multiples. D’abord, on introduit l’approche de la différence globale, une simple généralisation de l’approche de la différence simple au cas des instruments multiples qui a comme objectif de détecter si un ou plusieurs instruments utilisés sont invalides. Ensuite, on introduit les approches des différences individuelles et des différences groupées, deux méthodes qui généralisent les outils de détection de l’invalidité de l’approche de la différence simple afin d’identifier des instruments potentiellement problématiques et proposent une nouvelle estimation de l’effet causal de l’exposition sur la réponse. L’évaluation des méthodes passe par une étude théorique de l’impact de l’invalidité sur la convergence des estimateurs des moindres carrés ordinaires et des moindres carrés en deux étapes et une simulation qui compare la précision des estimateurs résultant des différentes méthodes et leur capacité à détecter l’invalidité des instruments. / Mendelian randomization is an instrumentation method that uses genetic instruments to estimate, via two-stage least squares regression for example, a causal relationship between an exposure and an outcome when the relationship is confounded by one or more unmeasured confounders. Mendelian randomization can handle confounding bias provided that the instruments are valid, i.e., that they meet three key assumptions. While two of the three assumptions can usually be satisfied, the third assumption is often invalidated by a genetic phenomenon called pleiotropy. In the presence of invalid instruments, the estimate of the causal effect of exposure on the outcome may be severely biased. To assess the potential presence of an invalid instrument in single-instrument studies, Glymour et al. (2012) proposed a method, hereinafter referred to as the simple difference approach, which uses the sign of the difference between the ordinary least squares estimator of the outcome on the exposure and the two-stage least squares estimator calculated using the instrument. Based on this approach, we introduce three methods applicable to Mendelian randomization with multiple instruments. The first method is the global difference approach and corresponds to a simple generalization of the simple difference approach to the case of multiple instruments that aims to detect whether one or more instruments are invalid. Next, we introduce the individual differences and the grouped differences approaches, two methods that generalize the simple difference approach to identify potentially invalid instruments and provide new estimates of the causal effect of the exposure on the outcome. The methods are evaluated using a theoretical investigation of the impact that invalid instruments have on the convergence of the ordinary least squares and two-stage least squares estimators as well as with a simulation study that compares the accuracy of the respective estimators and the ability of the corresponding methods to detect invalid instruments.
293

Sur les estimateurs doublement robustes avec sélection de modèles et de variables pour les données administratives

Bahamyirou, Asma 10 1900 (has links)
Les essais cliniques randomisés (ECRs) constituent la meilleure solution pour obtenir des effets causaux et évaluer l’efficacité des médicaments. Toutefois, vu qu’ils ne sont pas toujours réalisables, les bases de données administratives servent de solution de remplacement. Le sujet principal de cette thèse peut être divisée en deux parties, le tout, repartie en trois articles. La première partie de cette thèse traite de l’utilisation des estimateurs doublement robustes en inférence causale sur des bases de données administratives avec intégration des méthodes d’apprentissage automatique. Nous pouvons citer, par exemple, l’estimateur par maximum de vraisemblance ciblé (TMLE) et l’estimateur par augmentation de l’inverse de la probabilité de traitement (AIPTW). Ces méthodes sont de plus en plus utilisées en pharmaco-épidémiologie pour l’estimation des paramètres causaux, comme l’effet moyen du traitement. Dans la deuxième partie de cette thèse, nous développons un estimateur doublement robuste pour les données administratives et nous étendons une méthode existante pour l’ajustement du biais de sélection utilisant un échantillon probabiliste de référence. Le premier manuscrit de cette thèse présente un outil de diagnostic pour les analystes lors de l’utilisation des méthodes doublement robustes. Ce manuscrit démontre à l’aide d’une étude de simulation l’impact de l’estimation du score de propension par des méthodes flexibles sur l’effet moyen du traitement, et ce, en absence de positivité pratique. L’article propose un outil capable de diagnostiquer l’instabilité de l’estimateur en absence de positivité pratique et présente une application sur les médicaments contre l’asthme durant la grossesse. Le deuxième manuscrit présente une procédure de sélection de modificateurs d’effet et d’estimation de l’effet conditionnel. En effet, cet article utilise une procédure de régularisation en deux étapes et peut être appliqué sur plusieurs logiciels standards. Finalement, il présente une application sur les médicaments contre l’asthme durant la grossesse. Le dernier manuscrit développe une méthodologie pour ajuster un biais de sélection dans une base de données administratives dans le but d’estimer une moyenne d’une population, et ce, en présence d’un échantillon probabiliste provenant de la même population avec des co-variables communes. En utilisant une méthode de régularisation, il montre qu’il est possible de sélectionner statistiquement les bonnes variables à ajuster dans le but de réduire l’erreur quadratique moyenne et la variance. Cet article décrit ensuite une application sur l’impact de la COVID-19 sur les Canadiens. / Randomized clinical trials (RCTs) are the gold standard for establishing causal effects and evaluating drug efficacy. However, RCTs are not always feasible and the usage of administrative data for the estimation of a causal parameter is an alternative solution. The main subject of this thesis can be divided into two parts, the whole comprised of three articles. The first part studies the usage of doubly robust estimators in causal inference using administrative data and machine learning. Examples of doubly robust estimators are Targeted Maximum Likelihood Estimation (TMLE; [73]) and Augmented Inverse Probability of Treatment Weighting (AIPTW; [51]). These methods are more and more present in pharmacoepidemiology [65, 102, 86, 7, 37]. In the second part of this thesis, we develop a doubly robust estimator and extend an existing one [121] for the setting of administrative data with a supplemental probability sample. The first paper of this thesis proposes a diagnostic tool that uses re-sampling methods to identify instability in doubly robust estimators when using data-adaptive methods in the presence of near practical positivity violations. It demonstrates the impact of machine learning methods for propensity score estimation when near practical positivity violations are induced. It then describes an analysis of asthma medication during pregnancy. The second manuscript develops a methodology to statistically select effect modifying variables using a two stage procedure in the context of a single time point exposure. It then describes an analysis of asthma medication during pregnancy. The third manuscript describes the development of a variable selection procedure using penalization for combining a nonprobability and probability sample in order to adjust for selection bias. It shows that we can statistically select the right subset of the variables when the true propensity score model is sparse. It demonstrates the benefit in terms of mean squared error and presents an application of the impact of COVID-19 on Canadians.
294

Perception du soutien à l’autonomie et pratique d’activité physique chez les femmes ayant été traitées pour un cancer du sein : une analyse par score de propension

Plante, Audrey 12 1900 (has links)
La majorité des femmes ayant été traitées pour un cancer du sein sont physiquement inactives alors que l’activité physique (AP) pourrait atténuer les conséquences néfastes du cancer et des traitements. Le soutien à l’autonomie par les professionnels de la santé peut améliorer l’adhésion et le maintien de l’AP. Or, peu d’études portent sur les populations en cancer et la plupart utilisent des devis qui limitent l’inférence causale. L’objectif du présent mémoire est de déterminer, à l’aide d’une approche en inférence causale, si la perception du soutien à l’autonomie (PSA) par des professionnels de la santé est associée à l’AP d’intensités légère, modérée et vigoureuse chez des femmes ayant été traitées pour un cancer du sein. Les données ont été collectées dans le cadre de l’étude longitudinale « Life After Breast Cancer : Moving On » (n=199). La PSA a été mesurée par le questionnaire Healthcare Climate Questionnaire. L’AP a été mesurée à l’aide d’accéléromètres triaxiaux GT3X. L’association entre la PSA et l’AP a été estimée à l’aide régressions linéaires et les estimations ajustées ont été obtenues par pondération par l’inverse de la probabilité de traitement (IPTW). Les résultats montrent l’absence d’associations entre la PSA et l’AP d’intensités légère (β^(95%IC) = -0,09 (-0,68 ; 0,49)), modérée (β^(95%IC) = -0,03 (-0,17 ; 0,11)) ou vigoureuse (β^(95%IC) = 0,00 (-0,03 ; 0,02)). D’autres formes de soutien à l’AP par les professionnels de la santé pourraient être envisagées pour encourager les femmes ayant été traitées pour un cancer du sein à adopter et maintenir une pratique régulière d’AP. / The majority of women that have been treated for breast cancer are physically inactive although physical activity (PA) could attenuate some of the adverse consequences of cancer and treatment. Autonomy support from health care professionals may improve PA adherence and maintenance. However, few studies on this topic focus on people treated for cancer and most use designs that limit causal inference. This master’s thesis aimed to determine, using a causal inference approach, whether or not perceived autonomy support (PAS) from health care professionals is associated with light, moderate, and vigorous intensity PA among women treated for breast cancer. Data were from the longitudinal study “Life After Breast Cancer: Moving On” (n=199). PAS was measured with the Healthcare Climate Questionnaire. PA was measured using the GT3X triaxial accelerometers. Associations between PAS and PA were estimated with linear regressions and adjusted estimations were obtained using propensity score-based inverse probability of treatment weights (IPTW). Results reveal no association between PAS and PA of light (β^(95%CI) = -0.09 (-0.68, 0.49)), moderate (β^(95%CI) = -0.03 (-0.17, 0.11)), or vigorous (β^(95%CI) = 0.00 (-0.03, 0.02)) intensity. Other forms of support for PA by health care professionals could be examined to encourage women to adopt and maintain regular PA.
295

Advances in uncertainty modelling : from epistemic uncertainty estimation to generalized generative flow networks

Lahlou, Salem 08 1900 (has links)
Les problèmes de prise de décision se produisent souvent dans des situations d'incertitude, englobant à la fois l'incertitude aléatoire due à la présence de processus inhérents aléatoires et l'incertitude épistémique liée aux connaissances limitées. Cette thèse explore le concept d'incertitude, un aspect crucial de l'apprentissage automatique et un facteur clé pour que les agents rationnels puissent déterminer où allouer leurs ressources afin d'obtenir les meilleurs résultats. Traditionnellement, l'incertitude est encodée à travers une probabilité postérieure, obtenue par des techniques d'inférence Bayésienne approximatives. Le premier ensemble de contributions de cette thèse tourne autour des propriétés mathématiques des réseaux de flot génératifs, qui sont des modèles probabilistes de séquences discrètes et des échantillonneurs amortis de distributions de probabilités non normalisées. Les réseaux de flot génératifs trouvent des applications dans l'inférence Bayésienne et peuvent être utilisés pour l'estimation de l'incertitude. De plus, ils sont utiles pour les problèmes de recherche dans de vastes espaces compositionnels. Au-delà du renforcement du cadre mathématique sous-jacent, une étude comparative avec les méthodes variationnelles hiérarchiques est fournie, mettant en lumière les importants avantages des réseaux de flot génératifs, tant d'un point de vue théorique que par le biais d'expériences diverses. Ces contributions incluent une théorie étendant les réseaux de flot génératifs à des espaces continus ou plus généraux, ce qui permet de modéliser la probabilité postérieure et l'incertitude dans de nombreux contextes intéressants. La théorie est validée expérimentalement dans divers domaines. Le deuxième axe de travail de cette thèse concerne les mesures alternatives de l'incertitude épistémique au-delà de la modélisation de la probabilité postérieure. La méthode présentée, appelée Estimation Directe de l'Incertitude Épistémique (DEUP), surmonte une faiblesse majeure des techniques d'inférence Bayésienne approximatives due à la mauvaise spécification du modèle. DEUP repose sur le maintien d'un prédicteur secondaire des erreurs du prédicteur principal, à partir duquel des mesures d'incertitude épistémique peuvent être déduites. / Decision-making problems often occur under uncertainty, encompassing both aleatoric uncertainty arising from inherent randomness in processes and epistemic uncertainty due to limited knowledge. This thesis explores the concept of uncertainty, a crucial aspect of machine learning and a key factor for rational agents to determine where to allocate their resources for achieving the best possible results. Traditionally, uncertainty is encoded in a posterior distribution, obtained by approximate \textit{Bayesian} inference techniques. This thesis's first set of contributions revolves around the mathematical properties of generative flow networks, which are probabilistic models over discrete sequences and amortized samplers of unnormalized probability distributions. Generative flow networks find applications in Bayesian inference and can be used for uncertainty estimation. Additionally, they are helpful for search problems in large compositional spaces. Beyond deepening the mathematical framework underlying them, a comparative study with hierarchical variational methods is provided, shedding light on the significant advantages of generative flow networks, both from a theoretical point of view and via diverse experiments. These contributions include a theory extending generative flow networks to continuous or more general spaces, which allows modelling the Bayesian posterior and uncertainty in many interesting settings. The theory is experimentally validated in various domains. This thesis's second line of work is about alternative measures of epistemic uncertainty beyond posterior modelling. The presented method, called Direct Epistemic Uncertainty Estimation (DEUP), overcomes a major shortcoming of approximate Bayesian inference techniques caused by model misspecification. DEUP relies on maintaining a secondary predictor of the errors of the main predictor, from which measures of epistemic uncertainty can be deduced.
296

Fast high-dimensional posterior inference with deep generative models : application to CMB delensing

Sotoudeh, Mohammad-Hadi 08 1900 (has links)
Nous vivons à une époque marquée par une abondance de données cosmologiques de haute résolution. Cet afflux de données engendré par les missions d'observation de nouvelle génération au sol et dans l'espace porte le potentiel de remodeler fondamentalement notre compréhension de l'univers et de ses principes physiques sous-jacents. Cependant, la complexité grande des données observées pose des défis aux approches conventionnelles d'analyse de données, soit en raison de coûts de calcul irréalisables, soit en raison des hypothèses simplificatrices utilisées dans ces algorithmes qui deviennent inadéquates dans des contextes haute résolution à faible bruit, conduisant à des résultats sous-optimaux. En réponse, la communauté scientifique s'est tournée vers des méthodes innovantes d'analyse de données, notamment les techniques d'apprentissage automatique (ML). Les modèles de ML, lorsqu'ils sont bien entraînés, peuvent identifier de manière autonome des correlations significatives dans les données de manière plus efficace et sans hypothèses restrictives inutiles. Bien que les méthodes de ML aient montré des promesses en astrophysique, elles présentent également des problèmes tels que le manque d'interprétabilité, les biais cachés et les estimations d'incertitude non calibrées, ce qui, jusqu'a maintenant, a entrave leur application dans d'importantes découvertes scientifiques. Ce projet s'inscrit dans le cadre de la collaboration "Learning the Universe" (LtU), axée sur la reconstruction des conditions initiales de l'univers, en utilisant une approche de modélisation bayésienne et en exploitant la puissance du ML. L'objectif de ce projet est de développer un cadre pour mener une inférence bayésienne au niveau des pixels dans des problèmes multidimensionnels. Dans cette thèse, je présente le développement d'un cadre d'apprentissage profond pour un échantillonnage rapide des postérieurs en dimensions élevées. Ce cadre utilise l'architecture "Hierarchical Probabilistic U-Net", qui combine la puissance de l'architecture U-Net dans l'apprentissage de cartes multidimensionnelles avec le rigoureux cadre d'inférence des autoencodeurs variationnels conditionnels. Notre modèle peut quantifier les incertitudes dans ses données d'entraînement et générer des échantillons à partir de la distribution a posteriori des paramètres, pouvant être utilisés pour dériver des estimations d'incertitude pour les paramètres inférés. L'efficacité de notre cadre est démontrée en l'appliquant au problème de la reconstruction de cartes du fond diffus cosmologique (CMB) pour en retirer de l'effet de lentille gravitationnelle faible. Notre travail constitue un atout essentiel pour effectuer une inférence de vraisemblance implicite en dimensions élevées dans les domaines astrophysiques. Il permet d'exploiter pleinement le potentiel des missions d'observation de nouvelle génération pour améliorer notre compréhension de l'univers et de ses lois physiques fondamentales. / We live in an era marked by an abundance of high-resolution cosmological data. This influx of data brought about by next-generation observational missions on the ground and in space, bears the potential of fundamentally reshaping our understanding of the universe and its underlying physical principles. However, the elevated complexity of the observed data poses challenges to conventional data analysis approaches, either due to infeasible computational costs or the simplifying assumptions used in these algorithms that become inadequate in high-resolution, low-noise contexts, leading to suboptimal results. In response, the scientific community has turned to innovative data analysis methods, including machine learning (ML) techniques. ML models, when well-trained, can autonomously identify meaningful patterns in data more efficiently and without unnecessary restrictive assumptions. Although ML methods have shown promise in astrophysics, they also exhibit issues like lack of interpretability, hidden biases, and uncalibrated uncertainty estimates, which have hindered their application in significant scientific discoveries. This project is defined within the context of the Learning the Universe (LtU) collaboration, focused on reconstructing the initial conditions of the universe, utilizing a Bayesian forward modeling approach and harnessing the power of ML. The goal of this project is to develop a framework for conducting Bayesian inference at the pixel level in high-dimensional problems. In this thesis, I present the development of a deep learning framework for fast high-dimensional posterior sampling. This framework utilizes the Hierarchical Probabilistic U-Net architecture, which combines the power of the U-Net architecture in learning high-dimensional mappings with the rigorous inference framework of Conditional Variational Autoencoders. Our model can quantify uncertainties in its training data and generate samples from the posterior distribution of parameters, which can be used to derive uncertainty estimates for the inferred parameters. The effectiveness of our framework is demonstrated by applying it to the problem of removing the weak gravitational lensing effect from the CMB. Our work stands as an essential asset to performing high-dimensional implicit likelihood inference in astrophysical domains. It enables utilizing the full potential of next-generation observational missions to improve our understanding of the universe and its fundamental physical laws.
297

Etude multi-échelle du patron de diversité des abeilles et utilisation des ressources fleuries dans un agrosystème intensif / Multi-scale study of bee diversity pattern and floral resource use in intensive agricultural landscape

Rollin, Orianne 11 December 2013 (has links)
Les abeilles sont des pollinisateurs essentiels pour les cultures et les plantes sauvages, mais l'intensification des pratiques agricoles a engendré une baisse importante de leur abondance et diversité. Afin de protéger efficacement les abeilles dans les paysages agricoles, il est nécessaire d'avoir une meilleure connaissance de leurs patrons de diversité. L'objectif général de cette thèse était de déterminer les patrons spatio-temporels de la diversité des abeilles et l'utilisation des ressource fleuries dans un système agricole intensif. L'échantillonnage spatialement extensif de l'activité de butinage des abeilles sauvages et domestiques nous a permis de recenser 45040 individus (29314 abeilles domestiques et 15726 sauvages), appartenant à 192 espèces recensées à l'échelle territoriale. Cette diversité représente près de 20% de la richesse des espèces apiformes connues à l'échelle nationale. Cette communauté est caractérisée par une forte proportion d'espèces rares (28,8%) et de fortes variations temporelles et spatiales, en particulier de l'échelle locale jusqu'à 10-20 km2. L'importance des habitats semi-naturels pour soutenir les populations d'abeilles sauvages a été confirmée dans cette étude. Durant les périodes de floraison des cultures oléagineuses, les abeilles sauvages étaient étroitement associées aux habitats semi-naturels alors que les abeilles domestiques ont montré une nette préférence pour les cultures à floraison massive. La diversité des abeilles sauvages dans les habitats semi- naturels était 3-4 fois supérieure à celle observée dans le colza ou le tournesol. L'importance de certains facteurs écologiques clefs pour la diversité des abeilles, comme la richesse floristique locale et la quantité d'habitats semi-naturels dans le paysage, a été confirmée et quantifiée. Il a également été démontré que ces effets varient en fonction de la saison et de l'échelle spatiale. Ces résultats mettent en évidence les processus écologiques responsables des partons de diversité des abeilles à différentes échelles spatiales, et peuvent contribuer à optimiser la conception des mesures de conservation visant à promouvoir la diversité des abeilles dans les agrosystèmes intensifs. / Bees are essential pollinators for crops and wild plants, but theintensification of agricultural practices have contributed to a significantdecline in their abundance and diversity. To effectively protect andpromote the bee fauna in agroecosystems, a better knowledge of theirdiversity patterns is required. The over-arching objective of this thesiswas to determine the spatial and temporal patterns of bee diversity andfloral resource use in an intensive agricultural system in western France.A spatially extensive survey of foraging wild bees and honey bees returned45.040 individual records at the territorial scale (29.314 honey bees and15.726 wild bees), representing 192 species, i.e. nearly 20% of the speciesrichness reported at the national scale. The bee community wascharacterised by a large proportion of uncommon species (28.8 %) and bysignificant temporal and spatial variations of the diversity, especially atlocal scales up to 10-20 km2. The importance of semi-natural habitats forsustaining wild bee populations was highlighted in this study. Duringoleaginous crop flowering periods, wild bees were tightly associated withsemi-natural habitats while honey bees have shown a clear preference formass-flowering crops. The diversity of foraging wild bees was 3-4 timesgreater in semi-natural habitats than in oilseed rape or sunflower fields.The importance of some keystone ecological correlates of bee diversity,such as the local floral richness and the amount of semi-natural habitatsin the vicinity, has been confirmed and quantified. It was also evidencedthat their effect varies among seasons and spatial scales. These resultshighlight the ecological processes underlying bee diversity patterns atdifferent spatial scales, and further help to optimise the efficiency ofconservation measures intended to promote bee diversity in intensiveagrosystems.
298

Modèle bayésien non paramétrique pour la segmentation jointe d'un ensemble d'images avec des classes partagées / Bayesian nonparametric model for joint segmentation of a set of images with shared classes

Sodjo, Jessica 18 September 2018 (has links)
Ce travail porte sur la segmentation jointe d’un ensemble d’images dans un cadre bayésien.Le modèle proposé combine le processus de Dirichlet hiérarchique (HDP) et le champ de Potts.Ainsi, pour un groupe d’images, chacune est divisée en régions homogènes et les régions similaires entre images sont regroupées en classes. D’une part, grâce au HDP, il n’est pas nécessaire de définir a priori le nombre de régions par image et le nombre de classes, communes ou non.D’autre part, le champ de Potts assure une homogénéité spatiale. Les lois a priori et a posteriori en découlant sont complexes rendant impossible le calcul analytique d’estimateurs. Un algorithme de Gibbs est alors proposé pour générer des échantillons de la loi a posteriori. De plus,un algorithme de Swendsen-Wang généralisé est développé pour une meilleure exploration dela loi a posteriori. Enfin, un algorithme de Monte Carlo séquentiel a été défini pour l’estimation des hyperparamètres du modèle.Ces méthodes ont été évaluées sur des images-test et sur des images naturelles. Le choix de la meilleure partition se fait par minimisation d’un critère indépendant de la numérotation. Les performances de l’algorithme sont évaluées via des métriques connues en statistiques mais peu utilisées en segmentation d’image. / This work concerns the joint segmentation of a set images in a Bayesian framework. The proposed model combines the hierarchical Dirichlet process (HDP) and the Potts random field. Hence, for a set of images, each is divided into homogeneous regions and similar regions between images are grouped into classes. On the one hand, thanks to the HDP, it is not necessary to define a priori the number of regions per image and the number of classes, common or not.On the other hand, the Potts field ensures a spatial consistency. The arising a priori and a posteriori distributions are complex and makes it impossible to compute analytically estimators. A Gibbs algorithm is then proposed to generate samples of the distribution a posteriori. Moreover,a generalized Swendsen-Wang algorithm is developed for a better exploration of the a posteriori distribution. Finally, a sequential Monte Carlo sampler is defined for the estimation of the hyperparameters of the model.These methods have been evaluated on toy examples and natural images. The choice of the best partition is done by minimization of a numbering free criterion. The performance are assessed by metrics well-known in statistics but unused in image segmentation.
299

Inverse problems occurring in uncertainty analysis / Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique. / This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study.
300

Inverse inference in the asymmetric Ising model / Inférence inverse dans le modèle Ising asymétrique

Sakellariou, Jason 22 February 2013 (has links)
Des techniques expérimentales récentes ont donné la possibilité d'acquérir un très grand nombre de données concernant des réseaux biologiques complexes, comme des réseaux de neurones, des réseaux de gènes et des réseaux d'interactions de protéines. Ces techniques sont capables d'enregistrer les états des composantes individuelles de ces réseaux (neurones, gènes, protéines) pour un grand nombre de configurations. Cependant, l'information la plus pertinente biologiquement se trouve dans la connectivité de ces systèmes et dans la façon précise avec laquelle ces composantes interagissent, information que les techniques expérimentales ne sont pas au point d'observer directement. Le bût de cette thèse est d'étudier les méthodes statistiques nécessaires pour inférer de l'information sur la connectivité des réseaux complexes en partant des données expérimentales. Ce sujet est traité par le point de vue de la physique statistique, en puisant de l'arsenal de méthodes théoriques qui ont été développées pour l'étude des verres de spins. Les verres de spins sont des exemples de réseaux à variables discrètes qui interagissent de façon complexe et sont souvent utilisés pour modéliser des réseaux biologiques. Après une introduction sur les modèles utilisés ainsi qu'une discussion sur la motivation biologique de cette thèse, toutes les méthodes d'inférence de réseaux connues sont présentées et analysées du point de vue de leur performance. Par la suite, dans la troisième partie de la thèse, un nouvelle méthode est proposée qui s'appuie sur la remarque que les interactions en biologie ne sont pas nécessairement symétriques (c'est-à-dire l'interaction entre les noeuds A et B n'est pas la même dans les deux directions). Il est démontré que cette assomption conduit à des méthodes qui sont capables de prédire les interactions de façon exacte, étant donné un nombre suffisant de données, tout en utilisant un temps de calcul polynomial. Ceci est un résultat original important car toutes les autres méthodes connues sont soit exactes et non-polynomiales soit inexactes et polynomiales. / Recent experimental techniques in biology made possible the acquisition of overwhelming amounts of data concerning complex biological networks, such as neural networks, gene regulation networks and protein-protein interaction networks. These techniques are able to record states of individual components of such networks (neurons, genes, proteins) for a large number of configurations. However, the most biologically relevantinformation lies in their connectivity and in the way their components interact, information that these techniques aren't able to record directly. The aim of this thesis is to study statistical methods for inferring information about the connectivity of complex networks starting from experimental data. The subject is approached from a statistical physics point of view drawing from the arsenal of methods developed in the study of spin glasses. Spin-glasses are prototypes of networks of discrete variables interacting in a complex way and are widely used to model biological networks. After an introduction of the models used and a discussion on the biological motivation of the thesis, all known methods of network inference are introduced and analysed from the point of view of their performance. Then, in the third part of the thesis, a new method is proposed which relies in the remark that the interactions in biology are not necessarily symmetric (i.e. the interaction from node A to node B is not the same as the one from B to A). It is shown that this assumption leads to methods that are both exact and efficient. This means that the interactions can be computed exactly, given a sufficient amount of data, and in a reasonable amount of time. This is an important original contribution since no other method is known to be both exact and efficient.

Page generated in 0.0873 seconds