• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 26
  • 7
  • Tagged with
  • 72
  • 72
  • 42
  • 41
  • 19
  • 16
  • 15
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Bayesian large-scale structure inference and cosmic web analysis / Inférence bayésienne et analyse des grandes structures de l'Univers

Leclercq, Florent 24 September 2015 (has links)
Les observations de la structure à grande échelle de l'Univers sont précieuses pour établir et tester des théories cosmologiques sur son origine et son évolution. Cette démarche requiert des outils appropriés d'assimilation des données, afin d'établir le contact entre les catalogues de galaxies et les modèles de formation des structures.Dans cette thèse, une nouvelle approche pour l'analyse ab initio et simultanée de la formation et de la morphologie de la toile cosmique est présentée : l'algorithme BORG infère les fluctuations de densité primordiales et produit des reconstructions physiques de la distribution de matière noire, en assimilant les relevés de galaxies dans un modèle cosmologique de formation des structures. La méthode, basée sur la théorie bayésienne des probabilités, fournit un moyen de quantifier précisément les incertitudes.On présente l'application de BORG aux données du Sloan Digital Sky Survey et on décrit la structure de l'Univers dans le volume considéré. On démontre que cette approche a mené à la première inférence quantitative des conditions initiales et du scénario de formation des structures observées. On utilise ces résultats pour plusieurs projets cosmographiques visant à analyser et classifier la toile cosmique. En particulier, on construit un catalogue de vides, décrits au niveau de la matière noire et non des galaxies. On présente des cartes probabilistes détaillées de la dynamique de la toile cosmique et on propose une solution générale pour la classification des structures en présence d'incertitude.Les résultats de cette thèse constituent une précise description chrono-cosmographique des inhomogénéités de la structure cosmique. / Surveys of the cosmic large-scale structure carry opportunities for building and testing cosmological theories about the origin and evolution of the Universe. This endeavor requires appropriate data assimilation tools, for establishing the contact between survey catalogs and models of structure formation.In this thesis, we present an innovative statistical approach for the ab initio simultaneous analysis of the formation history and morphology of the cosmic web: the BORG algorithm infers the primordial density fluctuations and produces physical reconstructions of the dark matter distribution that underlies observed galaxies, by assimilating the survey data into a cosmological structure formation model. The method, based on Bayesian probability theory, provides accurate means of uncertainty quantification.We demonstrate the application of BORG to the Sloan Digital Sky Survey data and describe the primordial and late-time large-scale structure in the observed volume. We show how the approach has led to the first quantitative inference of the cosmological initial conditions and of the formation history of the observed structures. We then use these results for several cosmographic projects aiming at analyzing and classifying the large-scale structure. In particular, we build an enhanced catalog of cosmic voids probed at the level of the dark matter distribution, deeper than with the galaxies. We present detailed probabilistic maps of the dynamic cosmic web, and offer a general solution to the problem of classifying structures in the presence of uncertainty.The results described in this thesis constitute accurate chrono-cosmography of the inhomogeneous cosmic structure.
12

Three essays on biases in decision making

Ferecatu, Alina 01 July 2014 (has links)
Cette thèse est organisée en trois chapitres. Chaque article analyse les déviations systématiques des décideurs par rapport aux prédictions économiques classiques dans certaines expériences bien connues. Les agents s’écartent de la voie optimale et explorent ou exploitent de manière excessive dans le problème du bandit manchot, ils exigent des taux d’intérêt bien plus élevés par rapport aux taux du marché financier afin de reporter leurs dépenses lorsqu’ils prennent des décisions de choix intertemporel, et ils ne se contentent pas de recevoir des petites sommes d’argent, même si, objectivement, ils devraient accepter cette offre, dans des expériences de négociation comme le jeu de l’ultimatum. Ces soi-disant «irrégularités» sont documentées dans les trois essais de thèse. Le essaies représentent une première étape afin de formuler des stratégies adaptées au profile psychologique de chaque individu, nécessaires pour surmonter les biais de décision. / This dissertation is organized in three chapters. Each chapter analyzes decision makers’ systematic deviations from economic predictions in well-known experiments. People deviate from the optimal path and excessively explore or exploit in n-armed bandit games, demand interest rates well above financial market averages in order to defer consumption in intertemporal choice settings, and do not settle for receiving small amounts of money, even though they would be better off objectively, in bargaining games such as the ultimatum game. Such “irregularities” are documented in the three dissertation essays. The essays are intended as a first step to formulate individual specific, customized decision aids, useful to overcome such decision biases.
13

Modélisation de la susceptibilité génétique non observée d’un individu à partir de son histoire familiale de cancer : application aux études d'identification pangénomiques et à l'estimation du risque de cancer dans le syndrome de Lynch / Modeling the unobserved genetic susceptibility of an individual from his family history of cancer : applications to genome-wide identification studies and to the cancer risk estimation in Lynch syndrome

Drouet, Youenn 09 October 2012 (has links)
Le syndrome de Lynch est responsable d’environ 5% des cas de cancer colorectaux (CCR). Il correspond à la transmission d’une mutation,variation génétique rare, qui confère un haut risque de CCR. Une telle mutationn’est cependant identifiée que dans une famille sur deux. Dans lesfamilles sans mutation identifiée, dites négatives, le risque de CCR est malconnu en particulier les estimations individuelles du risque. Cette thèse comportedeux objectifs principaux. Obj. 1- étudier les stratégies capables de réduireles tailles d’échantillon dans les études visant à identifier de nouveauxgènes de susceptibilité ; et Obj. 2- définir un cadre théorique permettantd’estimer des risques individualisés de CCR dans les familles négatives, enutilisant l’histoire familiale et personnelle de CCR de l’individu. Notre travails’appuie sur la théorie des modèles mendéliens et la simulation de donnéesfamiliales, à partir desquelles il est possible d’étudier la puissance d’étudesd’identification, et d’évaluer in silico les qualités prédictives de méthodesd’estimation du risque. Les résultats obtenus apportent des connaissancesnouvelles pour la planification d’études futures. D’autre part, la cadre méthodologiqueque nous proposons permet une estimation plus précise durisque individuel, permettant d’envisager une surveillance plus individualisée. / Lynch syndrome is responsible of about 5% of cases of colorectal cancer (CRC). It corresponds to the transmission of a mutation, which is arare genetic variant, that confers a high risk of CRC. Such a mutation isidentified, however, in only one family of two. In families without identifiedmutation, called negative, the risk of CRC is largely unknown in particularthere is a lack of individualized risk estimates. This thesis has two main objectives.Obj. 1 - to explore strategies that could reduce the required samplesizes of identification studies, and Obj. 2 - to define a theoretical frameworkfor estimating individualized risk of CRC in negative families, using personaland family history of CRC of the individuals. Our work is based on thetheory of Mendelian models and the simulation of family data, from whichit is possible to study the power of identification studies as well as to assessand compare in silico the predictive ability of risk estimation methods. Theresults provide new knowledge for designing future studies, and the methodologicalframework we propose allows a more precise estimate of risk, thatmight lead to a more individualized cancer follow-up.
14

A Bayesian Approach for Inverse Problems in Synthetic Aperture Radar Imaging / Une approche bayésienne pour les problèmes inverses en imagerie Radar à Synthèse d'Ouverture

Zhu, Sha 23 October 2012 (has links)
L'imagerie Radar à Synthèse d'Ouverture (RSO) est une technique bien connue dans les domaines de télédétection, de surveillance aérienne, de géologie et de cartographie. Obtenir des images de haute résolution malgré la présence de bruit, tout en prenant en compte les caractéristiques des cibles dans la scène observée, les différents incertitudes de mesure et les erreurs resultantes de la modélisation, devient un axe de recherche très important.Les méthodes classiques, souvent fondées sur i) la modélisation simplifiée de la scène ; ii) la linéarisation de la modélisation directe (relations mathématiques liant les signaux reçus, les signaux transmis et les cibles) simplifiée ; et iii) l'utilisation de méthodes d'inversion simplifiées comme la Transformée de Fourier Inverse (TFI) rapide, produisent des images avec une résolution spatiale faible, peu robustes au bruit et peu quantifiables (effets des lobes secondaires et bruit du speckle).Dans cette thèse, nous proposons d'utiliser une approche bayésienne pour l'inversion. Elle permettrais de surmonter les inconvénients mentionnés des méthodes classiques, afin d'obtenir des images stables de haute résolution ainsi qu'une estimation plus précise des paramètres liés à la reconnaissance de cibles se trouvant dans la scène observée.L'approche proposée est destinée aux problèmes inverses de l'imagerie RSO mono-, bi-, et multi- statique ainsi que l'imagerie des cibles à micromouvement. Les a priori appropriés de modélisation permettant d'améliorer les caractéristiques des cibles pour des scènes de diverses natures seront présentées. Des méthodes d'estimation rapides et efficaces utilistant des a priori simples ou hiérarchiques seront développées. Le problème de l'estimation des hyperparameters sera galement traité dans le cadre bayésin. Les résultats relatifs aux données synthétiques, expérimentales et réelles démontrent l'efficacité de l'approche proposée. / Synthetic Aperture Radar (SAR) imaging is a well-known technique in the domain of remote sensing, aerospace surveillance, geography and mapping. To obtain images of high resolution under noise, taking into account of the characteristics of targets in the observed scene, the different uncertainties of measure and the modeling errors becomes very important.Conventional imaging methods are based on i) over-simplified scene models, ii) a simplified linear forward modeling (mathematical relations between the transmitted signals, the received signals and the targets) and iii) using a very simplified Inverse Fast Fourier Transform (IFFT) to do the inversion, resulting in low resolution and noisy images with unsuppressed speckles and high side lobe artifacts.In this thesis, we propose to use a Bayesian approach to SAR imaging, which overcomes many drawbacks of classical methods and brings high resolution, more stable images and more accurate parameter estimation for target recognition.The proposed unifying approach is used for inverse problems in Mono-, Bi- and Multi-static SAR imaging, as well as for micromotion target imaging. Appropriate priors for modeling different target scenes in terms of target features enhancement during imaging are proposed. Fast and effective estimation methods with simple and hierarchical priors are developed. The problem of hyperparameter estimation is also handled in this Bayesian approach framework. Results on synthetic, experimental and real data demonstrate the effectiveness of the proposed approach.
15

Modèles bayésiens hiérarchiques pour le traitement multi-capteur

Dobigeon, Nicolas 19 October 2007 (has links) (PDF)
Afin de traiter la masse d'informations récoltée dans de nombreuses applications, il est nécessaire de proposer de nouvelles méthodes de traitement permettant d'exploiter le caractère « multi-capteur » des données observées. Le sujet de cette thèse consiste à étudier des algorithmes d'estimation dans un contexte multi-capteur où plusieurs signaux ou images issus d'une même application sont disponibles. Ce problème présente un grand intérêt puisqu'il permet d'améliorer les performances d'estimation par rapport à une analyse qui serait menée sur chaque signal indépendamment des autres. Nous avons développé dans ce contexte des méthodes d'inférence bayésienne hiérarchique afin de résoudre efficacement des problèmes de segmentation de signaux multiples et d'analyse d'images hyperspectrales. L'utilisation de méthodes de Monte Carlo par chaînes de Markov permet alors de surmonter les difficultés liées à la complexité calculatoire de ces méthodes d'inférence.
16

Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec développement stochastique

Loi, Cédric 31 May 2011 (has links) (PDF)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastique de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L'objectif est double. En premier lieu, il s'agit d'étudier les processus stochastiques sous-jacents à l'organogenèse. Un nouveau cadre de travail combinatoire reposant sur l'utilisation de grammaires formelles a été établi dans le but d'étudier la distribution des nombres d'organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti à la mise en place d'une méthode symbolique permettant le calcul de distributions associées à l'occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l'estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d'un modèle de Markov caché et des méthodes d'inférence bayésienne sont utilisées pour résoudre le problème.
17

Modélisation de la susceptibilité génétique non observée d'un individu à partir de son histoire familiale de cancer : application aux études d'identification pangénomiques et à l'estimation du risque de cancer dans le syndrome de Lynch

Drouet, Youenn 09 October 2012 (has links) (PDF)
Le syndrome de Lynch est responsable d'environ 5% des cas decancer colorectaux (CCR). Il correspond à la transmission d'une mutation,variation génétique rare, qui confère un haut risque de CCR. Une telle mutationn'est cependant identifiée que dans une famille sur deux. Dans lesfamilles sans mutation identifiée, dites négatives, le risque de CCR est malconnu en particulier les estimations individuelles du risque. Cette thèse comportedeux objectifs principaux. Obj. 1- étudier les stratégies capables de réduireles tailles d'échantillon dans les études visant à identifier de nouveauxgènes de susceptibilité ; et Obj. 2- définir un cadre théorique permettantd'estimer des risques individualisés de CCR dans les familles négatives, enutilisant l'histoire familiale et personnelle de CCR de l'individu. Notre travails'appuie sur la théorie des modèles mendéliens et la simulation de donnéesfamiliales, à partir desquelles il est possible d'étudier la puissance d'étudesd'identification, et d'évaluer in silico les qualités prédictives de méthodesd'estimation du risque. Les résultats obtenus apportent des connaissancesnouvelles pour la planification d'études futures. D'autre part, la cadre méthodologiqueque nous proposons permet une estimation plus précise durisque individuel, permettant d'envisager une surveillance plus individualisée.
18

Contribution à l’évaluation des incertitudes sur les sections efficaces neutroniques, pour les réacteurs à neutrons rapides / Contribution to uncertainties evaluation for fast reactors neutronic cross sections

Privas, Edwin 28 September 2015 (has links)
La thèse a essentiellement été motivée par la volonté croissante de maîtriser les incertitudes des données nucléaires, pour des raisons de sûreté nucléaire. Elle vise en particulier les sections efficaces indispensables aux calculs neutroniques des réacteurs rapides au sodium de Génération IV (RNR-Na), et les moyens permettant de les évaluer.Le principal objectif de la thèse est de fournir et montrer l’intérêt de nouveaux outils permettant de réaliser des évaluations cohérentes, avec des incertitudes maîtrisées et fiables. Pour répondre aux attentes, différentes méthodes ont été implémentées dans le cadre du code CONRAD, développé au CEA de Cadarache, au Département d’Étude des Réacteurs.Après l’état des lieux et la présentation des différents éléments nécessaires pour effectuer une évaluation, il est présenté des résolutions stochastiques de l’inférence Bayésienne. Elles permettent de fournir d’une part, des informations supplémentaires à l’évaluateur par rapport à la résolution analytique et d’autre part, de valider cette dernière. Les algorithmes ont été testés avec succès à travers plusieurs cas, malgré des temps de calcul plus longs faute aux méthodes de type Monte Carlo.Ensuite, ce travail a rendu possible, dans CONRAD, de prendre en compte des contraintes dites microscopiques. Elles sont définies par l’ajout ou le traitement d’informations additionnelles par rapport à l’évaluation traditionnelle. Il a été développé un algorithme basé sur le formalisme des multiplicateurs de Lagrange pour résoudre les problèmes de continuité entre deux domaines en énergies traitées par deux théories différentes. De plus, d’autres approches sont présentées, avec notamment l’utilisation de la marginalisation, permettant soit de compléter une évaluation existante en ajoutant des matrices de covariance, soit de considérer une incertitude systématique pour une expérience décrite par deux théories. Le bon fonctionnement des différentes méthodes implémentées est illustré par des exemples, dont celui de la section efficace totale de l’238U.Enfin, les dernières parties de la thèse se focalisent sur le retour des expériences intégrales, par méthodes d’assimilation de données intégrales. Cela permet de réduire les incertitudes sur les sections efficaces d’intérêt pour les réacteurs rapides. Ce document se clôt par la présentation de quelques résultats clefs sur les sections efficaces de l’238U et du 239Pu, avec la considération d’expériences comme PROFIL et PROFIL-2 dans Phénix ou encore Jezebel. / The thesis has been motivated by a wish to increase the uncertainty knowledge on nuclear data, for safety criteria. It aims the cross sections required by core calculation for sodium fast reactors (SFR), and new tools to evaluate its.The main objective of this work is to provide new tools in order to create coherent evaluated files, with reliable and mastered uncertainties. To answer those problematic, several methods have been implemented within the CONRAD code, which is developed at CEA of Cadarache.After a summary of all the elements required to understand the evaluation world, stochastic methods are presented in order to solve the Bayesian inference. They give the evaluator more information about probability density and they also can be used as validation tools. The algorithms have been successfully tested, despite long calculation time.Then, microscopic constraints have been implemented in CONRAD. They are defined as new information that should be taken into account during the evaluation process. An algorithm has been developed in order to solve, for example, continuity issues between two energy domains, with the Lagrange multiplier formalism. Another method is given by using a marginalization procedure, in order to either complete an existing evaluation with new covariance or add systematic uncertainty on an experiment described by two theories. The algorithms are well performed along examples, such the 238U total cross section.The last parts focus on the integral data feedback, using methods of integral data assimilation to reduce the uncertainties on cross sections. This work ends with uncertainty reduction on key nuclear reactions, such the capture and fission cross sections of 238U and 239Pu, thanks to PROFIL and PROFIL-2 experiments in Phénix and the Jezebel benchmark.
19

Recherche de planètes extra-solaires et de naines brunes par l’effet de microlentille gravitationnelle. Étude d’observations interférométriques / Exoplanets and brown dwarfs detections through gravitational microlensing. Study of interferometric observations

Ranc, Clément 22 September 2015 (has links)
L'effet de microlentille gravitationnelle est devenu un outil unique pour détecter des exoplanètes. Il se produit lorsqu'une étoile de premier plan (la microlentille) et une étoile d'arrière plan (la source) sont alignées avec la Terre. La lumière provenant de l'étoile la plus lointaine, souvent dans le bulbe galactique, est alors déviée par la microlentille située dans le disque. Au cours de ce phénomène, des images multiples de la source sont créées par la microlentille, plus grandes que la source, qui apparaît alors amplifiée. Si l'une de ces images multiples se forme au voisinage d'une planète, un pic d'amplification de la source survient, révélant sa présence. Après un tour d'horizon de l'état des connaissances dans le domaine des exoplanètes, nous décrivons les spécificités de la méthode des microlentilles dans ce domaine. Ensuite, nous présentons en détail la modélisation des microlentilles, de ses racines théoriques à la modélisation pratique des courbes de lumières expérimentales. Dans une troisième partie, nous présentons la détection de la première naine brune en orbite autour d'une étoile de type solaire par la méthode des microlentilles, et nous montrons en quoi cette technique ouvre des perspectives nouvelles et originales pour mieux connaître les mécanismes de formation de ces objets dont l'origine reste à identifier. Nous étudions enfin le potentiel de l'observation de microlentilles par interférométrie, en introduisant un nouveau formalisme adapté à l'étude conjointe des événements en photométrie et en interférométrie. Le manuscrit se termine par l'évaluation du nombre moyen d'événements de microlentille observables par interférométrie chaque année. / Gravitational microlensing effect has become a unique tool to detect and characterise exoplanets. A microlensing effect occurs when a foreground star (the microlens) and a background star (the source) are aligned with the Earth on the same line of sight. The light from the furthest star, usually in the Galactic bulge, is deflected by the microlens located on the disk. During this phenomenon, multiple images of the source are created by the lens, bigger than the source that consequently seems amplified. When one of these images are located in the vicinity of an exoplanet, a short amplification jump occurs revealing its presence. After a quick overview of the exoplanets field of research, I highlight the specificities of microlensing comparing to the other planets detection techniques. Then, I describe in details the modelling of microlensing effects, from a theoretical to a numerical point of view. In a third part, I describe the detection of the first brown dwarf orbiting a solar-type star using microlensing, strengthening the recent idea that microlensing will lead to a better understanding of the mechanisms involved in the brown dwarfs formation, still not fully understood. Finally, I investigate the potential of interferometric observations of microlensing events that will give, in the future, new original constrains on the microlens physical properties. First we introduce a new formalism that closely combines interferometric and microlensing observable quantities. Secondly, we determine an average number of events that are at reach of long baseline interferometers every year.
20

Inflation cosmologique : aspects théoriques et contraintes observationnelles / Cosmological inflation : theoretical aspects and observational constraints

Vennin, Vincent 05 September 2014 (has links)
Dans cette thèse sur articles nous nous intéressons aux contraintes observationnelles sur les modèles d'inflation cosmologique et nous étudions certains aspects fondamentaux liés à la nature quantique de la physique inflationnaire. Nous commençons par analyser de façon systématique les modèles à un champ scalaire et avec terme cinétique standard. Dans l'approximation du roulement lent, et en intégrant les contraintes venant du réchauffement, nous dérivons les prédictions associées à environ 75 potentiels. Nous utilisons ensuite les techniques d'inférence Bayésienne pour classer près de 200 modèles inflationnaires et contraindre leurs paramètres. Cela permet d'identifier les modèles favorisés par les observations et de quantifier les niveaux de tensions entre les différents jeux de données. L'intérêt d'une telle approche est renforcé par l'étude de méthodes indépendantes du modèle telle que le ``flot de Hubble'', qui se révèle biaisé. Nous calculons également le spectre de puissance au deuxième ordre pour les modèles d'inflation-k.Ensuite, nous décrivons certains aspects quantiques de la physique inflationnaire. Le formalisme de l'inflation stochastique est notamment utilisé dans le cadre du modèle à deux champs d'inflation hybride. Nous discutons les corrections quantiques sur les prédictions de ce modèle, et à l'aide d'un formalisme récursif, nous nous intéressons à la façon dont elles modifient l'amplitude des perturbations. Finalement, la transition quantique-classique et le problème de la mesure quantique sont étudiés dans un contexte cosmologique. Un modèle de réduction dynamique du paquet d'onde est appliqué à la description des perturbations inflationnaires. / This thesis by publication is devoted to the study of the observational constraints on cosmological inflationary models, and to the investigation of fundamental aspects related to the quantum nature of the inflationary physics.We first present a systematic analysis of all single-scalar-field inflationary models with canonical kinetic terms. Reheating consistent slow-roll predictions are derived for ~ 75 potentials, and Bayesian inference and model comparison techniques are developed to arrange a landscape of ~ 200 inflationary models and associated priors. In this way, we discuss what are the best models of inflation, and we properly quantify tension between data sets. Related to this massive sampling, we highlight the shortcomings of model independent approaches such as the one of ``horizon-flow''. We also pave the way for extending our computational pipeline to k-inflation models by calculating the power spectrum at next-to-next-to leading order for this class of models.In a second part, we describe some aspects related to the quantum nature of the inflationary setup. In particular, we make use of the stochastic inflation formalism, which incorporates the quantum corrections to the inflationary dynamics, in the two-field model of hybrid inflation. We discuss how the quantum diffusion can affect the observable predictions in such models, and we design a recursive strategy that incorporates its effects on the perturbations amplitude. Finally, we investigate the quantum-to-classical transition and the quantum measurement problem in a cosmological context. We apply a dynamical wavefunction collapse model to the description of inflationary perturbations.

Page generated in 0.1113 seconds